UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Io vorrei fare una considerazione, spontanea quanto anche ingenua magari, io ho esperienze fino alla RTX 2080, poi ho saltato di netto le serie 3000 e sono riapprodato ora alle serie 4000, infatti se su Amazon la data di arrivo è corretta mi dovrebbe arrivare la 4070ti domani entro le 20:00.

Siccome non mi andava di comprare insieme anche CPU e mobo nuova, così da diluire in qualche mese le spese, aspetterò ancora uno o due stipendi prima di aggiornare per bene il sistema, però questi due mesetti mi terrò il possibile e probabile colletto di bottiglia. Va beh, non mi fulmina Dio se vado in collo uno o due mesetti, amen. Però mi sembra di capire che siamo prossimi al rilascio di nuova gen di cpu, devo informarmi meglio, io generalmente mi tengo molto aggiornato quando sono in procinto di fare gli upgrade, poi lascio la presa fino a che non rivaluto di aggiorarnare di nuovo e adesso sto rificcando un pò il naso nella situazione odierna legata alle nuove cpu o prossime in uscita.

Però facevo un ragionamento, guardando questo benchmark molto accurato che vi linko a fine messaggio e soffermandomi soprattutto sulle prestazioni a 2160p delle sorelle maggiori soprattutto, anche se la 4070 ti si difende comunque molto bene, ma anche di altri fattori quali il processo produttivo e il TDP di queste schede, per me che ho i miei ultimi ricordi prossimi alla 2080, che per quanto una buona scheda comunque è uscita agli inizi dell'implemento del ray tracing quindi limitata nel gestirlo in totale serenità, facente parte ancora di quel tipo di concezione classica delle schede video, ovvero che le top di gamma (parlando adesso della 2080 ti) gestivano questa risoluzione un pò oltre il framerate ottimale (parlando del 4k) ma mai con valori da dire che erano fuori di testa, allucinanti, comunque era una risoluzione tosta da reggere o addirittura soverchiare, vedere ora questi framerate folli a 1440p e 2160p, con quei massimali di calore generato e quel consumo energetico mi lascia veramente a bocca aperta.

Qui siamo a qualcosa che fino a qualche anno fa era fantascienza!! 😳 Lasciamo stare i prezzi attuali, però quando questo tipo di tecnologie non sarà più solo per utenza che è disposta a sborsarci tanti soldi dietro ma la media delle schede permetteranno a tutti di fare tutti delle prestazioni adeguate a queste risoluzioni, ovviamente per fasce di prezzo e prestazioni, certe cose diventeranno davvero un ricordo di un'epoca ormai sorpassata, sarà come ricordarsi oggi di quando al tempo avevamo 256 mb di RAM su sistemi a 32 bit e installavamo i giochi su floppy disk, con l'avviso di inserire il prossimo, proprio una cosa del passato il ricordo di quando overcloccavamo la CPU e la GPU per avere qualche prestazione in più quando queste iniziavano un pò ad arrancare, quando 60 fps a 1080p, 1440p e 2160 p era un lusso, quando la scheda nuova, se ci faceva fare i 70/80/100 fps a 1440p ci sembrava un gran passo avanti... Dannazione, io qui non vedo 80 fps a 2160p, siamo prossimi ai 200 di fps su molti giochi, soprattutto senza ray tracing, per non parlare di sberle da 180/200 fps a 1440p.. schede del genere, prima di arrancare colpi su giochi senza ray tracing (ma anche quelli CON il ray tracing, se quel che vedo sul DLSS 3 è reale e se verrà migliorato col tempo, con incrementi mostruosi) ce ne passeranno di ponti con ste madonne di prestazioni, soprattutto in epoca ancora fortemente ancorata al crossgen com'è quella odierna, perlomeno su giochi che non escano dei colabrodi..

Ma voi che avete le 4080 e le 4090, mi confermate più o meno se i valori che vedo in questa pagina sono significativamente pari alle vostre prestazioni? Ovviamente io ho cercato per la mia scheda, però in questa pagina ci sono benchmarks di anche le sorelle maggiori.
https://www.techspot.com/review/2601-nvidia-geforce-rtx-4070-ti/
 
Ultima modifica:
Io vorrei fare una considerazione, spontanea quanto anche ingenua magari, io ho esperienze fino alla RTX 2080, poi ho saltato di netto le serie 3000 e sono riapprodato ora alle serie 4000, infatti se su Amazon la data di arrivo è corretta mi dovrebbe arrivare la 4070ti domani entro le 20:00.

Siccome non mi andava di comprare insieme anche CPU e mobo nuova, così da diluire in qualche mese le spese, aspetterò ancora uno o due stipendi prima di aggiornare per bene il sistema, però questi due mesetti mi terrò il possibile e probabile colletto di bottiglia. Va beh, non mi fulmina Dio se vado in collo uno o due mesetti, amen. Però mi sembra di capire che siamo prossimi al rilascio di nuova gen di cpu, devo informarmi meglio, io generalmente mi tengo molto aggiornato quando sono in procinto di fare gli upgrade, poi lascio la presa fino a che non rivaluto di aggiorarnare di nuovo e adesso sto rificcando un pò il naso nella situazione odierna legata alle nuove cpu o prossime in uscita.

Però facevo un ragionamento, guardando questo benchmark molto accurato che vi linko a fine messaggio e soffermandomi soprattutto sulle prestazioni a 2160p delle sorelle maggiori soprattutto, anche se la 4070 ti si difende comunque molto bene, ma anche di altri fattori quali il processo produttivo e il TDP di queste schede, per me che ho i miei ultimi ricordi prossimi alla 2080, che per quanto una buona scheda comunque è uscita agli inizi dell'implemento del ray tracing quindi limitata nel gestirlo in totale serenità, facente parte ancora di quel tipo di concezione classica delle schede video, ovvero che le top di gamma (parlando adesso della 2080 ti) gestivano questa risoluzione un pò oltre il framerate ottimale (parlando del 4k) ma mai con valori da dire che erano fuori di testa, allucinanti, comunque era una risoluzione tosta da reggere o addirittura soverchiare, vedere ora questi framerate folli a 1440p e 2160p, con quei massimali di calore generato e quel consumo energetico mi lascia veramente a bocca aperta.

Qui siamo a qualcosa che fino a qualche anno fa era fantascienza!! 😳 Lasciamo stare i prezzi attuali, però quando questo tipo di tecnologie non sarà più solo per utenza che è disposta a sborsarci tanti soldi dietro ma la media delle schede permetteranno a tutti di fare tutti delle prestazioni adeguate a queste risoluzioni, ovviamente per fasce di prezzo e prestazioni, certe cose diventeranno davvero un ricordo di un'epoca ormai sorpassata, sarà come ricordarsi oggi di quando al tempo avevamo 256 mb di RAM su sistemi a 32 bit e installavamo i giochi su floppy disk, con l'avviso di inserire il prossimo, proprio una cosa del passato il ricordo di quando overcloccavamo la CPU e la GPU per avere qualche prestazione in più quando queste iniziavano un pò ad arrancare, quando 60 fps a 1080p, 1440p e 2160 p era un lusso, quando la scheda nuova, se ci faceva fare i 70/80/100 fps a 1440p ci sembrava un gran passo avanti... Dannazione, io qui non vedo 80 fps a 2160p, siamo prossimi ai 200 di fps su molti giochi, soprattutto senza ray tracing, per non parlare di sberle da 180/200 fps a 1440p.. schede del genere, prima di arrancare colpi su giochi senza ray tracing (ma anche quelli CON il ray tracing, se quel che vedo sul DLSS 3 è reale e se verrà migliorato col tempo, con incrementi mostruosi) ce ne passeranno di ponti con ste madonne di prestazioni, soprattutto in epoca ancora fortemente ancorata al crossgen com'è quella odierna, perlomeno su giochi che non escano dei colabrodi..

Ma voi che avete le 4080 e le 4090, mi confermate più o meno se i valori che vedo in questa pagina sono significativamente pari alle vostre prestazioni? Ovviamente io ho cercato per la mia scheda, però in questa pagina ci sono benchmarks di anche le sorelle maggiori.
https://www.techspot.com/review/2601-nvidia-geforce-rtx-4070-ti/
Grande scheda questa 4070 ti , Il PC in futuro diventerà un hobby per ricchi, ma questo è un lato negativo visto che chi produce giochi focalizzerà la sua attenzione sulle console ( un po' come avvenne nel 2010-11) in futuro avremmo giochi basati sull'hardware di ps5 ed Xbox e su PC porting scandaloso, tanto tutti abbiamo 32 GB di RAM e una 4080..
 
Grande scheda questa 4070 ti , Il PC in futuro diventerà un hobby per ricchi, ma questo è un lato negativo visto che chi produce giochi focalizzerà la sua attenzione sulle console ( un po' come avvenne nel 2010-11) in futuro avremmo giochi basati sull'hardware di ps5 ed Xbox e su PC porting scandaloso, tanto tutti abbiamo 32 GB di RAM e una 4080..
Come ne stiamo parlando anche di là se la cosa non si limita solo alle fasce alte (mi viene difficile considerare una fascia media una 3090ti, che era un mostro fino all'anno scorso, con dlss 3 oggi, scusatemi, magari è un limite mio) ma tutto il gaming diventa una cosa di nicchia e proibitiva per molti è un grosso problema.
--- i due messaggi sono stati uniti ---
kollaps a quanto l'hai presa? io 899 su amazon, venduta e spedita da amazon
990, stava agli ultimi pezzi su Amazon, quando l'ho presa io era l'ultimo pezzo, poi è subito rincarato di oltre 130 euro.

Però io ho anche fatto una valutazione, avendo saltato di netto le serie 3000 e avendo decretato un budget di non oltre le 1000 euro per una scheda video e la RTX 2080 l'ho pagata 900 euro, che è in linea col prezzo di questa, avrei comunque avuto uno stacco netto rispetto alla precedente di due generazioni prima sul budget che avevo già prestabilito come massimo. Alla fine mi sono ritrovato con un salto generazionale spiccato rispetto alla mia di due generazioni fa, quasi 5 anni che ce l'ho, con miglioria anche di cuda cores che non mi sono certo di poco conto, facendo gpu rendering al budget che avevo già valutato per l'acquisto del nuovo, poi vendendo la vecchia ci avrei riguadagnato qualche centinaio di euro sopra.
Tra l'altro se DLSS 3 verrà migliorato e implementato di norma sui giochi esosi a venire, basti guardare che Atomic Heart, appena uscito, ce l'ha di base, io che non ci muoio se non attivo il DLSS, ci trovo anche qualcosa che potrebbe ritardarmi acciacchi vari dopo tot anni della scheda, soprattutto a 1440p. Non sono uno che si cambia l'hardware ogni generazione di cpu e schede video, cerco sempre di starci quei 4/5 anni prima di cambiare. Se tra tot anni la scheda non mi fa percepire degli acciacchi che mi portano a spenderci nuovamente 900/1000 euro, per via che ha qualcosa che mi può ritardare la comparsa di acciacchi, ben venga, io comunque ci sono stato nel mio budget prestabilito, con una scheda molto più performante della precedente, che magari mi permette pure di ritardare degli acciacchi col passare degli anni e quindi posticipare la spesa di hardware nuovo. Se avevo la 3080 mi tenevo quella, senza nemmeno pensarci.
 
Ultima modifica:
Io vorrei fare una considerazione, spontanea quanto anche ingenua magari, io ho esperienze fino alla RTX 2080, poi ho saltato di netto le serie 3000 e sono riapprodato ora alle serie 4000, infatti se su Amazon la data di arrivo è corretta mi dovrebbe arrivare la 4070ti domani entro le 20:00.

Siccome non mi andava di comprare insieme anche CPU e mobo nuova, così da diluire in qualche mese le spese, aspetterò ancora uno o due stipendi prima di aggiornare per bene il sistema, però questi due mesetti mi terrò il possibile e probabile colletto di bottiglia. Va beh, non mi fulmina Dio se vado in collo uno o due mesetti, amen. Però mi sembra di capire che siamo prossimi al rilascio di nuova gen di cpu, devo informarmi meglio, io generalmente mi tengo molto aggiornato quando sono in procinto di fare gli upgrade, poi lascio la presa fino a che non rivaluto di aggiorarnare di nuovo e adesso sto rificcando un pò il naso nella situazione odierna legata alle nuove cpu o prossime in uscita.

Però facevo un ragionamento, guardando questo benchmark molto accurato che vi linko a fine messaggio e soffermandomi soprattutto sulle prestazioni a 2160p delle sorelle maggiori soprattutto, anche se la 4070 ti si difende comunque molto bene, ma anche di altri fattori quali il processo produttivo e il TDP di queste schede, per me che ho i miei ultimi ricordi prossimi alla 2080, che per quanto una buona scheda comunque è uscita agli inizi dell'implemento del ray tracing quindi limitata nel gestirlo in totale serenità, facente parte ancora di quel tipo di concezione classica delle schede video, ovvero che le top di gamma (parlando adesso della 2080 ti) gestivano questa risoluzione un pò oltre il framerate ottimale (parlando del 4k) ma mai con valori da dire che erano fuori di testa, allucinanti, comunque era una risoluzione tosta da reggere o addirittura soverchiare, vedere ora questi framerate folli a 1440p e 2160p, con quei massimali di calore generato e quel consumo energetico mi lascia veramente a bocca aperta.

Qui siamo a qualcosa che fino a qualche anno fa era fantascienza!! 😳 Lasciamo stare i prezzi attuali, però quando questo tipo di tecnologie non sarà più solo per utenza che è disposta a sborsarci tanti soldi dietro ma la media delle schede permetteranno a tutti di fare tutti delle prestazioni adeguate a queste risoluzioni, ovviamente per fasce di prezzo e prestazioni, certe cose diventeranno davvero un ricordo di un'epoca ormai sorpassata, sarà come ricordarsi oggi di quando al tempo avevamo 256 mb di RAM su sistemi a 32 bit e installavamo i giochi su floppy disk, con l'avviso di inserire il prossimo, proprio una cosa del passato il ricordo di quando overcloccavamo la CPU e la GPU per avere qualche prestazione in più quando queste iniziavano un pò ad arrancare, quando 60 fps a 1080p, 1440p e 2160 p era un lusso, quando la scheda nuova, se ci faceva fare i 70/80/100 fps a 1440p ci sembrava un gran passo avanti... Dannazione, io qui non vedo 80 fps a 2160p, siamo prossimi ai 200 di fps su molti giochi, soprattutto senza ray tracing, per non parlare di sberle da 180/200 fps a 1440p.. schede del genere, prima di arrancare colpi su giochi senza ray tracing (ma anche quelli CON il ray tracing, se quel che vedo sul DLSS 3 è reale e se verrà migliorato col tempo, con incrementi mostruosi) ce ne passeranno di ponti con ste madonne di prestazioni, soprattutto in epoca ancora fortemente ancorata al crossgen com'è quella odierna, perlomeno su giochi che non escano dei colabrodi..

Ma voi che avete le 4080 e le 4090, mi confermate più o meno se i valori che vedo in questa pagina sono significativamente pari alle vostre prestazioni? Ovviamente io ho cercato per la mia scheda, però in questa pagina ci sono benchmarks di anche le sorelle maggiori.
https://www.techspot.com/review/2601-nvidia-geforce-rtx-4070-ti/
Ti confermo che le prestazioni della 4090 sono mostruose.
Performance prezzo e consumi vanno di pari passo 😅
Gioco in 4k su una tv 100hz e per ora non ho ancora usato il dlss perche' le prestazioni sono ottime anche in modalita' nativa.
 
Come ne stiamo parlando anche di là se la cosa non si limita solo alle fasce alte (mi viene difficile considerare una fascia media una 3090ti, che era un mostro fino all'anno scorso, con dlss 3 oggi, scusatemi, magari è un limite mio) ma tutto il gaming diventa una cosa di nicchia e proibitiva per molti è un grosso problema.
--- i due messaggi sono stati uniti ---

990, stava agli ultimi pezzi su Amazon, quando l'ho presa io era l'ultimo pezzo, poi è subito rincarato di oltre 130 euro.

Però io ho anche fatto una valutazione, avendo saltato di netto le serie 3000 e avendo decretato un budget di non oltre le 1000 euro per una scheda video e la RTX 2080 l'ho pagata 900 euro, che è in linea col prezzo di questa, avrei comunque avuto uno stacco netto rispetto alla precedente di due generazioni prima sul budget che avevo già prestabilito come massimo. Alla fine mi sono ritrovato con un salto generazionale spiccato rispetto alla mia di due generazioni fa, quasi 5 anni che ce l'ho, con miglioria anche di cuda cores che non mi sono certo di poco conto, facendo gpu rendering al budget che avevo già valutato per l'acquisto del nuovo, poi vendendo la vecchia ci avrei riguadagnato qualche centinaio di euro sopra.
Tra l'altro se DLSS 3 verrà migliorato e implementato di norma sui giochi esosi a venire, basti guardare che Atomic Heart, appena uscito, ce l'ha di base, io che non ci muoio se non attivo il DLSS, ci trovo anche qualcosa che potrebbe ritardarmi acciacchi vari dopo tot anni della scheda, soprattutto a 1440p. Non sono uno che si cambia l'hardware ogni generazione di cpu e schede video, cerco sempre di starci quei 4/5 anni prima di cambiare. Se tra tot anni la scheda non mi fa percepire degli acciacchi che mi portano a spenderci nuovamente 900/1000 euro, per via che ha qualcosa che mi può ritardare la comparsa di acciacchi, ben venga, io comunque ci sono stato nel mio budget prestabilito, con una scheda molto più performante della precedente, che magari mi permette pure di ritardare degli acciacchi col passare degli anni e quindi posticipare la spesa di hardware nuovo. Se avevo la 3080 mi tenevo quella, senza nemmeno pensarci.
se la prendevi qualche giorno prima risparmiavi 90 euro, comunque anche a 900 è carissima
 
se la prendevi qualche giorno prima risparmiavi 90 euro, comunque anche a 900 è carissima
Eh... che sfiga.. 🤬 quando stavo guardando io era l'unica, tra l'altro avevo pure ordinato una 3080 all'inizio perchè non contemplavo andarci sopra i mille euro, poi Crimescene mi ha messo un link della 4070 ti poco sotto i mille, ho annullato l'ordine della 3080 e ho aggiunto la differenza, perchè effettivamente per un centinaio di euro in più, se uno deve proprio cambiare a quel punto a livello prestazionale conviene più una 4070 ti. Tipo a 1100 e oltre euro non l'avrei mai comprata, ma in generale, sono un appassionato di gaming si, ma non intendo pagare una scheda video più di 1000 euro, anche se fosse un prezzo normale, ok le scimmie ma c'è un limite che cerco di darmi, tra l'altro ho iniziato a pagare questi prezzi da poche generazioni, fino a prima della serie 2000 avevo la 1070 e quella ancora prima la r9 280x, che pagai tipo 300 euro se non erro.

Tra l'altro ora la 4070 ti sta sul letto dietro di me.. non ho molta voglia di montarla adesso, devo pure cambiare pasta termica alla cpu e ripulire un pò tutto il case, perchè negli ultimi tempi mi sono un pò sbracato e approfittando per aprirlo gli dò anche una pulita generale.. domani la testo un pò.

Tu in VR ci giochi ancora? Sarà da ritestarla anche sui nostri giochi PCVR, proprio curioso di vedere quanto posso spingere il super sampling rispetto a prima, su Project Cars 2 o Elite Dangerous, Skyrim VR o HL Alyx.. anche se ho un visore ormai antiquato.. se non ci fosse la situazione terribile della PCVR attuale penserei attualmente anche a un G3 o quel che c'è di analogo attualmente, ma con sta disperazione a livello di uscite sono fermo con la VR attualmente.. Se pensi che il vero motivo per cui passai dalla 1070 alla 2080 fu proprio per aumentare il SS nei giochi VR, più che nel flat..
 
Ultima modifica:
Quanto consuma la 4090?
in 4k ad esempio su Spiderman Miles Morales (ci sto giocando in questi giorni) va da un minimo di 300 a un massimo di 410 w circa.
Ho fatto una prova di overclock arrivando a circa 3,1 ghz sul core e 24 ghz sulle memorie e in benchmark ha consumato 597 w 😅
Dovrei aver messo anche uno screen qualche pagina fa.
Edit ecco lo screen ad aria, da un paio di settimane e sotto liquido anche lei:
strix_4090.jpg
 
Ultima modifica:
in 4k ad esempio su Spiderman Miles Morales (ci sto giocando in questi giorni) va da un minimo di 300 a un massimo di 410 w circa.
Ho fatto una prova di overclock arrivando a circa 3,1 ghz sul core e 24 ghz sulle memorie e in benchmark ha consumato 597 w 😅
Dovrei aver messo anche uno screen qualche pagina fa.
Edit ecco lo screen ad aria, da un paio di settimane e sotto liquido anche lei:
Visualizza allegato 453836
300 watt sono un botto, oppure sono rimasto a 8 anni fa!
 
300 watt sono un botto, oppure sono rimasto a 8 anni fa!
In realtà no. Considera che una gtx 1080ti consumava 250 watt, una rtx 2080ti 250watt, una rtx 3080 320watt, la mia da 12GB 370 watt senza undervolt proprio come la rtx 3080ti e la 3090.

Quindi 300 non sono tanti per tutta quella potenza di calcolo che una rtx 4090 riesce ad offrire. Il problema però è che la rtx 4090 non consuma 300watt, magari con bassi carichi arriva a quel tdp, a pieno carico con undervolt consuma 400/420watt. Però attenzione, anche 400watt non sono tanti se consideriamo le performance, lo diventano nel momento in cui ti rendi conto che giocare a un God of War in 4K a 144fps è da dementi.
Basta una rtx 3080 / rtx 3080ti per gestire il 4K 60fps e tali gpu con undervolt arrivano a consumare 250/270watt.
 
Ci tengo a precisare che la scheda la utilizzo oltre che per il gaming anche per il lavoro.
Le applicazioni di analisi finanziaria beneficiano della quantita' esagerata di cuda cores della 4090.
 
Ci tengo a precisare che la scheda la utilizzo oltre che per il gaming anche per il lavoro.
Le applicazioni di analisi finanziaria beneficiano della quantita' esagerata di cuda cores della 4090.
Si ricordo che l'avevi scritto quando l'hai presa (altrimenti sai che insulti che prendevi qui😆)
 
Quale sarebbe il "best buy" di questa generazione? ammesso che ci sia
--- i due messaggi sono stati uniti ---
In realtà no. Considera che una gtx 1080ti consumava 250 watt, una rtx 2080ti 250watt, una rtx 3080 320watt, la mia da 12GB 370 watt senza undervolt proprio come la rtx 3080ti e la 3090.

Quindi 300 non sono tanti per tutta quella potenza di calcolo che una rtx 4090 riesce ad offrire. Il problema però è che la rtx 4090 non consuma 300watt, magari con bassi carichi arriva a quel tdp, a pieno carico con undervolt consuma 400/420watt. Però attenzione, anche 400watt non sono tanti se consideriamo le performance, lo diventano nel momento in cui ti rendi conto che giocare a un God of War in 4K a 144fps è da dementi.
Basta una rtx 3080 / rtx 3080ti per gestire il 4K 60fps e tali gpu con undervolt arrivano a consumare 250/270watt.
Sei uno statista nato, non è la prima volta che leggo un tuo post con questi report
 
Quale sarebbe il "best buy" di questa generazione? ammesso che ci sia
--- i due messaggi sono stati uniti ---

Sei uno statista nato, non è la prima volta che leggo un tuo post con questi report
Considerando che l'intera line up di Ada Lovelance non è ancora stata lanciata, direi senza ombra di dubbio la rx 6600 come proposta low budget, la rtx 3060ti per la fascia media ( in questa fascia amd la evito perché si perde il supporto al ray tracing ), rtx 3080 fascia alta.
La prima gpu citata a 270 euro, un ottimo affare visto i tempi, la seconda a 420 euro e la terza a 750 euro. ( Parere personale )

Io statista, ma quando mai.
 
Pubblicità
Pubblicità
Indietro
Top