UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
voglio togliermi una curiosità...

nelle prime 72 ore da che vi è arrivata la scheda (ora con le ada, ma prima anche con ampere) quante di quelle ore le avete passate giocando? e quante cercando di ottimizzare la scheda?

per il sottoscritto:
nella prima settimana/10 giorni, su 20/24 ore totali di utilizzo... saran state 17/21 di test fra UV/ottimizzazione, bench, test coi giochi, e forse il resto in gioco vero e proprio.

e con questa c'è pure il Frame-Generator da testare... la donna mi conosce bene, e infatti la vedo già scuotere la testa e mormorare... (immagino sia: "lo so già! appena arriva il giocattolino nuovo... per una settimana non lo vedrò se non a cena!" e probabilmente ha ragione! per fortuna da venerdì ha il turno notturno per quasi 2 settimane.)

@Kal El
ti dirò... se la 3070 non mi dava problemi? aspettavo senza problemi le 5000. 🤷‍♂️ forse anche le 6000. (mmmhhh.... naah.)
Siccome io non vivo per “la telemetria”, ed i giochi li pago 😅 (non diamo per scontato sia così per tutti), io nelle prime 72 ore la scheda LA USO, ci gioco e non cambio NULLA.
Beh forse più di 72 ore…

Solo in seguito inizio a ragionare su eventuali ottimizzazioni (leggasi pure undervolt).

Nella presentazione di Nvidia della 4060Ti hanno affermato di aver aumentato fino a 16 volte la cache l2 così da accedere meno al bus e raggiungere le prestazioni di un bus doppio rispetto a quello che effettivamente è. @.delly. tu che la stai testando sono curioso di sapere cosa ne pensi.😉 Per quanto riguarda la vram ad oggi gli 8GB non bastano in una manciata di giochi tra cui la maggior parte rotti, vero anche che la scheda non la devi valutare sui giochi usciti ma da oggi a x anni in avanti e sinceramente se nel 2020 8GB ci stavano oggi nel 2023 non si può sentire.
Questa è una bella favoletta da ufficio stampa eh.
Chiunque capisca qualcosa di architettura dei sistemi (pochi) sa bene che la cache è una gran cosa in certi scenari, ma non può sopperire a carenze hw in altri.
Diciamo che questo aumento di cache ha mitigato una situazione che altrimenti sarebbe stata disastrosa, ma il confronto con la 3060Ti dimostra che non sempre è efficace.
 
A parte che usare un solo porting fatto male per dimostrare uno scenario è la cosa più sbagliata possibile (ma l’Uomo che viene da lontano lo sta facendo dall’inizio della sua presenza qui), tanto stai tranquillo che non ti posterà nulla…
😂 Allora lo posto io dopo avere visionato almeno 10 video per cercare un riscontro sulla sue affermazioni. Questo è quello che ho trovato dove il bottleneck sulla CPU è maggiormente in risalto:


Appurato questo però facciamo qualche precisazione:

1) E' il worst-case scenario possibile di TUTTO il gioco per la CPU che si trova a dover gestire contemporaneamente parecchi personaggi tra giocanti ed NPC, RT e movimenti molto veloci nell'ambiente;

2) Se guardiamo l'utilizzo dei core della CPU ce ne sta sempre almeno uno a cannone (somma core reale + core SMT) significando che la programmazione del gioco, in questo frangente, è orientata verso una gestione single thread del lavoro e quindi sostanzialmente diventa una questione di solo IPC del core sotto sforzo. Ora, visto che in qualche frangente l'utilizzo della GPU scende verso il 60%, per equilibrare la situazione e vedere la scheda video lavorare sempre al massimo, servirebbe una CPU capace di garantire almeno un +40% di IPC (del core sotto carico massimo) su un Ryzen 5900X. Tralasciando le CPU X3D, che in teoria potrebbero bypassare questa situazione di collo di bottiglia andando a prendere le istruzioni che servono nel "bacino" della cache L3, un +40% di IPC su un Ryzen 5900X non è certo poco per qualunque CPU quindi si sarebbe in una certa misura CPU limited praticamente con tutto;

3) Usa delle memorie abbastanza standard 3600 MHz CL 16-19-19-39, probabilmente con latenza intorno ai 65ns. Con memorie più tirate e latenze intorno ai 60ns o meno sono abbastanza convinto che i minimi migliorerebbero di almeno un 3-5% e quindi migliorerebbe di conseguenza un poco anche l'utilizzo della GPU;

4) Sta registrando probabilmente con lo Shadowplay quindi un po' di prestazioni comunque si perdono;

5) In questo caso limite si fanno comunque sempre almeno 65+ fps sui minimi quindi a livello di giocabilità i problemi stanno a zero;

6) Se il trend è cambiare CPU ogni volta che la scheda video non sta a palla forse bisognerebbe rivolgersi al mercato console per il campo videoludico: meno preoccupazioni, meno rogne, meno pensieri.
--- i due messaggi sono stati uniti ---
Tralasciando le CPU X3D, che in teoria potrebbero bypassare questa situazione di collo di bottiglia andando a prendere le istruzioni che servono nel "bacino" della cache L3, un +40% di IPC su un Ryzen 5900X non è certo poco per qualunque CPU quindi si sarebbe in una certa misura CPU limited con qualunque processore;
Mi auto quoto un attimo visto che ho trovato un video con scena simile ma con una CPU X3D (precisamente un 5800X3D). In effetti la cache 3D serve tanto in questo gioco:


Siamo mediamente ad occhio ad un +15/20 fps sui minimi rispetto al Ryzen 5900X (quindi rispetto a tutti i Ryzen 5000X non X3D) ma comunque siamo ancora lontani dal 100% fisso di utilizzo GPU. Secondo me considerando il gap pure coi Ryzen 7000X3D non si arriva al 100% piombato.
 
Ultima modifica:
ù
gioco da pc da almeno 25 anni, e non ho mai avuto sistemi enthusiast, ma sempre sistemi medi. per cui mi son sempre divertito e per necessità virtù trovare il giusto compromesso qualità visiva/prestazioni ottimizzando le varie impostazioni nei giochi. 😉

@Dradkol
sotto una 3080? per la 3070 in giù, francamente se il denaro non è un problema... un pensierino lo farei. (in qhd. in FHD anche no!)
3080 a salire? si rimane alla finestra!
Guarda mi hai frainteso. Io non intendevo in nessun modo mettere in mezzo te o la tua gpu, io stavo rispondendo a lui perché ha definito Ampere "zavorra", quindi gli ho fatto notare che una rtx zavorra 3080 12GB è più veloce di una rtx 4070.
Il tutto con lo scopo di fargli notare ( capire è impossibile ) che ha detto un altra fesseria delle sue.

Sono sicuro che ti troverai da dio con la rtx 4070 e che ti permetterà di giocare in 1440p senza nessun problema per anni.
--- i due messaggi sono stati uniti ---

È solamente per bypassare il bottleneck su RE4(che resta comunque), te l'ho detto, il 2160p è tutta fuffa per il gaming, non rinuncerei mai all'alto refresh, ragazzo.
Alto refresh rate, tutto fuffa, 2160p ragazzo, gaming tutta re4 bottleneck, solamente bypassare.

Ecco cosa capisco leggendo le tue frasi senza senso.
 
Nella presentazione di Nvidia della 4060Ti hanno affermato di aver aumentato fino a 16 volte la cache l2 così da accedere meno al bus e raggiungere le prestazioni di un bus doppio rispetto a quello che effettivamente è. @.delly. tu che la stai testando sono curioso di sapere cosa ne pensi.😉 Per quanto riguarda la vram ad oggi gli 8GB non bastano in una manciata di giochi tra cui la maggior parte rotti, vero anche che la scheda non la devi valutare sui giochi usciti ma da oggi a x anni in avanti e sinceramente se nel 2020 8GB ci stavano oggi nel 2023 non si può sentire.

La cache in alcune situazioni aiuta, ma non può sopperire in tutto e per tutto a una maggiore banda...
Nvidia ha detto quello che ha detto perchè leggendo le schede tecniche un viandante bulgaro vede alla voce "bandwidth":
RTX 4060 ti: 288GB/s
RTX 3060 ti: 448GB/s
E pensa: diamine, la RTX 4060 ti è peggio della scheda che sostituisce. E non ha nemmeno tutti i torti, da un certo punto di vista, anche se ovviamente il bandwidth non è tutto.

P.S Se bastasse un cache L2 16 volte maggiore per pareggiare un bus da 256 bit la RTX4060ti dovrebbe fare ben di più di un misero +10% sulla 3060 ti.
 
Ultima modifica:
😂 Allora lo posto io dopo avere visionato almeno 10 video per cercare un riscontro sulla sue affermazioni. Questo è quello che ho trovato dove il bottleneck sulla CPU è maggiormente in risalto:

Questo non è lo scenario peggiore anche se c’è già Ashley, ma lo scenario peggiore è appena incontrerai Ashley, quando c’è pioggia e vento, che da 130fps ti passa ad 80fps con un bottleneck pesante.
Il discorso dell’IPC è corretto, questo non è il solo gioco su cui accade, ma succede su tutti i giochi fino ad ora da me provati, eccetto cb2077.
A me non viene in tasca nulla, sono il primo che ci rimette soldi, e lo ripeto a gran voce, il 5900x non è adatto ad una 4090.
Difendere dell’hardware è ironico, sono pezzi di silicio dallo 0 valore umano, quindi se c’è da disprezzare, io disprezzo, tutto qui.
Sul discorso RE4, è ottimizzato da far ridere, e sulle gpu nvidia pesa enormemente sulla cpu, guarda caso è un gioco partenership Amd.
 
La cache in alcune situazioni aiuta, ma non può sopperire in tutto e per tutto a una maggiore banda...
Nvidia ha detto quello che ha detto perchè leggendo le schede tecniche un viandante bulgaro vede alla voce "bandwidth":
RTX 4060 ti : 288GB/s
RTX 3060 ti: 448GB/s
E pensa: diamine, la RTX 4060 ti è peggio della scheda che sostituisce. E non ha nemmeno tutti i torti, da un certo punto di vista, anche se ovviamente il bandwidth non è tutto.

P.S Se bastasse un cache L2 16 volte maggiore per pareggiare un bus da 256 bit la RTX4060ti dovrebbe fare ben di più di un misero +10% sulla 3060 ti.

GeForce RTX 4060 Ti vs RTX 3060 Ti Specifications​

Graphics CardRTX 4060 TiRTX 3060 Ti
Fabrication ProcessTSMC 4N NVIDIA Custom Process8nm Samsung
Transistor Count22.9 billion17.4 billion
ArchitectureAda LovelaceAmpere
GPUAD106GA104
Graphics Processing Clusters35
Texture Processing Clusters1719
Streaming Multiprocessors3438
CUDA Cores43524864
Tensor Cores136 (4th Gen)152 (3rd Gen)
RT Cores34 (3rd Gen)38 (2nd Gen)
Texture Units136152
ROPs4880

Da specifiche hanno tagliato su tutti i fronti. Gli è rimasta solo la frequenza e la faccia da tolla di presentare un cut simile e spacciarlo per qualcosa di decente visto che l'MSRP rimane lo stesso. In pratica Nvidia si tiene la ciccia e ti vende l'osso.
Di questa gen si salvano due schede: la 4090 perché ha dalla sua il prezzo e le prestazioni e la 4080 per le prestazioni. Tutto il resto è da far rimanere sugli scaffali finché non abbassano la cresta di un buon 50%.
 
😂 Allora lo posto io dopo avere visionato almeno 10 video per cercare un riscontro sulla sue affermazioni. Questo è quello che ho trovato dove il bottleneck sulla CPU è maggiormente in risalto:


Appurato questo però facciamo qualche precisazione:

1) E' il worst-case scenario possibile di TUTTO il gioco per la CPU che si trova a dover gestire contemporaneamente parecchi personaggi tra giocanti ed NPC, RT e movimenti molto veloci nell'ambiente;

2) Se guardiamo l'utilizzo dei core della CPU ce ne sta sempre almeno uno a cannone (somma core reale + core SMT) significando che la programmazione del gioco, in questo frangente, è orientata verso una gestione single thread del lavoro e quindi sostanzialmente diventa una questione di solo IPC del core sotto sforzo. Ora, visto che in qualche frangente l'utilizzo della GPU scende verso il 60%, per equilibrare la situazione e vedere la scheda video lavorare sempre al massimo, servirebbe una CPU capace di garantire almeno un +40% di IPC (del core sotto carico massimo) su un Ryzen 5900X. Tralasciando le CPU X3D, che in teoria potrebbero bypassare questa situazione di collo di bottiglia andando a prendere le istruzioni che servono nel "bacino" della cache L3, un +40% di IPC su un Ryzen 5900X non è certo poco per qualunque CPU quindi si sarebbe in una certa misura CPU limited praticamente con tutto;

3) Usa delle memorie abbastanza standard 3600 MHz CL 16-19-19-39, probabilmente con latenza intorno ai 65ns. Con memorie più tirate e latenze intorno ai 60ns o meno sono abbastanza convinto che i minimi migliorerebbero di almeno un 3-5% e quindi migliorerebbe di conseguenza un poco anche l'utilizzo della GPU;

4) Sta registrando probabilmente con lo Shadowplay quindi un po' di prestazioni comunque si perdono;

5) In questo caso limite si fanno comunque sempre almeno 65+ fps sui minimi quindi a livello di giocabilità i problemi stanno a zero;

6) Se il trend è cambiare CPU ogni volta che la scheda video non sta a palla forse bisognerebbe rivolgersi al mercato console per il campo videoludico: meno preoccupazioni, meno rogne, meno pensieri.
--- i due messaggi sono stati uniti ---

Mi auto quoto un attimo visto che ho trovato un video con scena simile ma con una CPU X3D (precisamente un 5800X3D). In effetti la cache 3D serve tanto in questo gioco:


Siamo mediamente ad occhio ad un +15/20 fps sui minimi rispetto al Ryzen 5900X (quindi rispetto a tutti i Ryzen 5000X non X3D) ma comunque siamo ancora lontani dal 100% fisso di utilizzo GPU. Secondo me considerando il gap pure coi Ryzen 7000X3D non si arriva al 100% piombato.
Ottima disanima, e concordo sulle conclusioni.
Questa ostinazione per rottamare un 5900X è basata sul nulla…

Che poi quando guardo gli screenshot di quel RE4 mi viene la pelle d’oca: quello sarebbe un gioco “next gen” ?

1684918033713.webp

1684918144620.webp

Questo sarebbe il gioco che mette in crisi un 5900X ? Sta roba gira su una PlayStation, e non la 5, la 4….
 
A me non viene in tasca nulla, sono il primo che ci rimette soldi, e lo ripeto a gran voce, il 5900x non è adatto ad una 4090.

abbiamo già dimostrato, a più riprese, che non sei in grado di giudicare cosa è idoneo ad una 4090 o meno per mancanza di comprensione della questione
Difendere dell’hardware è ironico, sono pezzi di silicio dallo 0 valore umano, quindi se c’è da disprezzare, io disprezzo, tutto qui.

ironico ha un significato diverso.

Sul discorso RE4, è ottimizzato da far ridere, e sulle gpu nvidia pesa enormemente sulla cpu, guarda caso è un gioco partenership Amd.

Se è “ottimizzato da far ridere”, perché continui a prenderlo come esempio per sostenere le tue tesi ? Ti contraddici da solo…
Il 5900X va cambiato perché fa bottleneck su RE4 , però RE4 è ottimizzato male perché è sponsorizzato AMD.
In pratica ti smentisci 3 volte nella stessa frase 🤦🏻‍♂️

RE4 è semplicemente un cattivo porting che come quasi tutti i cattivi porting si avvantaggia della cache più che di altro.
 
Ottima disanima, e concordo sulle conclusioni.
Questa ostinazione per rottamare un 5900X è basata sul nulla…

Che poi quando guardo gli screenshot di quel RE4 mi viene la pelle d’oca: quello sarebbe un gioco “next gen” ?

Visualizza allegato 460065

Visualizza allegato 460066

Questo sarebbe il gioco che mette in crisi un 5900X ? Sta roba gira su una PlayStation, e non la 5, la 4….
Palesemente un gioco cross gen, senza dubbio, come il resto dei giochi in commercio.
Ormai basta un gioco mal ottimizzato per gridare alla next gen, senza capire che la pesantezza di un gioco non è un punto a favore, anzi, mette i brividi vedere giochi come questi girare male su hardware di fascia alta.

Per quanto riguarda il bottleneck in 1440p con un ryzen 9 5900x, non ce molto da dire, mi sento già in imbarazzo per lui, non ce motivo di inferire.
 
Siccome io non vivo per “la telemetria”, ed i giochi li pago 😅 (non diamo per scontato sia così per tutti), io nelle prime 72 ore la scheda LA USO, ci gioco e non cambio NULLA.
Beh forse più di 72 ore…

Solo in seguito inizio a ragionare su eventuali ottimizzazioni (leggasi pure undervolt).


Questa è una bella favoletta da ufficio stampa eh.
Chiunque capisca qualcosa di architettura dei sistemi (pochi) sa bene che la cache è una gran cosa in certi scenari, ma non può sopperire a carenze hw in altri.
Diciamo che questo aumento di cache ha mitigato una situazione che altrimenti sarebbe stata disastrosa, ma il confronto con la 3060Ti dimostra che non sempre è efficace.
Perfetto volevo infatti una spiegazione tecnica, appena hanno detto questa cosa nella presentazione Nvidia non è che ci avevo creduto chissà quanto!😅
--- i due messaggi sono stati uniti ---
La cache in alcune situazioni aiuta, ma non può sopperire in tutto e per tutto a una maggiore banda...
Nvidia ha detto quello che ha detto perchè leggendo le schede tecniche un viandante bulgaro vede alla voce "bandwidth":
RTX 4060 ti : 288GB/s
RTX 3060 ti: 448GB/s
E pensa: diamine, la RTX 4060 ti è peggio della scheda che sostituisce. E non ha nemmeno tutti i torti, da un certo punto di vista, anche se ovviamente il bandwidth non è tutto.

P.S Se bastasse un cache L2 16 volte maggiore per pareggiare un bus da 256 bit la RTX4060ti dovrebbe fare ben di più di un misero +10% sulla 3060 ti.
Inoltre aggiungerei che sempre in fase di presentazione è stata la prima volta che non hanno spiaccicato in bella vista i cuda core, sintomo che anche loro si vergognavano parecchio del taglio fatto rispetto alla 3060Ti.
 
Ultima modifica:

GeForce RTX 4060 Ti vs RTX 3060 Ti Specifications​

Graphics CardRTX 4060 TiRTX 3060 Ti
Fabrication ProcessTSMC 4N NVIDIA Custom Process8nm Samsung
Transistor Count22.9 billion17.4 billion
ArchitectureAda LovelaceAmpere
GPUAD106GA104
Graphics Processing Clusters35
Texture Processing Clusters1719
Streaming Multiprocessors3438
CUDA Cores43524864
Tensor Cores136 (4th Gen)152 (3rd Gen)
RT Cores34 (3rd Gen)38 (2nd Gen)
Texture Units136152
ROPs4880

Da specifiche hanno tagliato su tutti i fronti. Gli è rimasta solo la frequenza e la faccia da tolla di presentare un cut simile e spacciarlo per qualcosa di decente visto che l'MSRP rimane lo stesso. In pratica Nvidia si tiene la ciccia e ti vende l'osso.
Di questa gen si salvano due schede: la 4090 perché ha dalla sua il prezzo e le prestazioni e la 4080 per le prestazioni. Tutto il resto è da far rimanere sugli scaffali finché non abbassano la cresta di un buon 50%.

Viene da pensare dove siano finiti i 5.5 miliardi di transistor in più, visto che hanno tagliato su tutto (bus, ROPs, SM). Tensor e RT cores di nuova generazione sono così "grossi"?

EDIT: Sono finiti nella cache L2 probabilmente... Ci ho pensato dopo.
 
Ultima modifica:
Inoltre aggiungerei che sempre in fase di presentazione è stata la prima volta che non hanno spiaccicato in bella vista i cuda core, sintomo che anche loro si vergognavano parecchio del taglio fatto rispetto alla 3060Ti.
Ma assolutamente si. Lo sanno benissimo che l'intera line up è castrata per tenere un gap mostruoso con la rtx 4090 e far risultare quest'ultima, con il suo folle prezzo, più appetibile.
Persino la rtx 4080, nonostante sia un ottima gpu, è troppo castrata rispetto alla 4090, giusto per intenderci, tra la 3090 e la 3080 10GB ci stava solo un 12% di gap, non che questo sia corretto ma neanche un 50% lo è secondo me.

Dalla rtx 4070ti in giù, le gpu sono troppo castrate per i miei gusti.
 
Nella presentazione di Nvidia della 4060Ti hanno affermato di aver aumentato fino a 16 volte la cache l2 così da accedere meno al bus e raggiungere le prestazioni di un bus doppio rispetto a quello che effettivamente è
E' simile a quello che aveva fatto con profitto amd su rdna2.

Solo che loro avevano messo una cache L3 da 128Mb.
La cache L3 penso sia molto più adatta ad incrementare la rapidità degli accessi alla memoria solitamente destinati alla Vram.

Nvidia ha portato la L2 da 4 a 32Mb. La L3 non ce l'hanno neanche. (La L2 è più veloce, ma utile per certi scenari... e non credo sia conveniente aumentarla al posto della L3, a meno che non si vogliano aggiungere pochi Mb come hanno fatto)
Il motivo per cui non hanno voluto mettere 128Mb di L3 come ha fatto amd secondo me è che richiede costoso spazio sui die (già parecchio estesi nel loro caso). Ancora più costoso sul nodo che usano adesso.

Infatti la grande innovazione di rdna3 col multidie mirava proprio a questo, mettere secchiate di cache L3 su die separati fatti con nodi più economici. Poi però non sono riusciti a far scalare la cosa come speravano, evidentemente gli accessi alla memoria non erano l'unico bottleneck della loro architettura.
 
tra la 3090 e la 3080 10GB ci stava solo un 12% di gap, non che questo sia corretto ma neanche un 50% lo è secondo me
Situazione irripetibile causa Samsung ed il suo mediocre processo produttivo (frequenza bassa, consumi, calore): hanno dovuto usare per entrambe le fasce il GA-102 differenziandole per una manciata di Tensor, RT e Cuda. Il GA-104 delle 70 sarebbe stato troppo poco performante per la classe 80. Per una volta nella storia è andata bene al cliente.
 
Pubblicità
Pubblicità
Indietro
Top