UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Per me il PhysX è una bella funzionalità che viene sfruttata purtroppo da poche sh. È ben visibile la differenza nei giochi dove viene implementata.
Agli albori della 'tecnologia' la proprietaria era Ageia e R6 Vegas una delle prime implementazioni e serviva una scheda aggiuntiva per gestire la fisica degli oggetti... nVidia ci vide lungo ed acquisi Ageia. Ci vollero anni per tirare fuori l'Havok, che pure lui non viene usato un granché...
Ricordo ancora che nelle opzioni per usufruire del PhysX dovevi avere una gpu dedicata solo per quello, anche se poi bastava una top di gamma e lo facevi girare senza problemi. Io lo utilizzavo solo con la mia GTX 480 e in effetti come dici te era un molto interessante. Su Batman per esempio aggiungeva il fumo/vapore e la fisica agli oggetti e vedevi Batman calpestare fogli e libri e pagine che volavano.
--- i due messaggi sono stati uniti ---
Purtroppo no caro Max e non sono l'unico ad avere questo fastidioso problema
Io sto riscontrando problemi su Cyberpunk 2077 con i nuovi driver ma per fortuna ieri sono riuscito a finirlo.
 
Ricordo ancora che nelle opzioni per usufruire del PhysX dovevi avere una gpu dedicata solo per quello, anche se poi bastava una top di gamma e lo facevi girare senza problemi. Io lo utilizzavo solo con la mia GTX 480 e in effetti come dici te era un molto interessante. Su Batman per esempio aggiungeva il fumo/vapore e la fisica agli oggetti e vedevi Batman calpestare fogli e libri e pagine che volavano.
Questa era la scheda BFG Ageia necessaria per il 'PhysX' prima che nVidia comprasse baracca e burattini.... Da qualche parte dovrei ancora averla...
Immagine 2022-10-17 095620.png
 
Comunque menomale che ho preso una 3070Ti a 600€ e non pensare alle nuove gpu.
Nvidia e le sue scelte scellerate
Mi ricordo che eri indeciso tra Smartphone, gpu e un altra cosa, vedo che alla fine hai optato per la gpu, ;)
Come ti stai trovando ? Avverti il jump prestazionale (45%) dalla rtx 2070 super che avevi prima ?
--- i due messaggi sono stati uniti ---
Questa era la scheda BFG Ageia necessaria per il 'PhysX' prima che nVidia comprasse baracca e burattini.... Da qualche parte dovrei ancora averla...
Io avevo all'epoca la gtx 285 e ricordo che nei giochi mi consigliavano di aggiungere una gtx 260 per il Physx, invece con questa bestiolina che avevi te, avevi lo stesso risultato ( se non migliore ) e consumava molto meno di una gtx 260. Quanto ti era costata ?
 
Sisi devo dire che è una bella figliolina mi soddisfa proprio parecchio.
Poi la zotac triventola è proprio figa da vedere
 
Io avevo all'epoca la gtx 285 e ricordo che nei giochi mi consigliavano di aggiungere una gtx 260 per il Physx, invece con questa bestiolina che avevi te, avevi lo stesso risultato ( se non migliore ) e consumava molto meno di una gtx 260. Quanto ti era costata ?
All'epoca la scheda nVidia piu potente era la GTX 7800. Stiamo parlando di circa 15 anni fa...
Quella schedina Ageia, che veniva proposta in due versioni da 128MB e 256MB di memoria non costava poco, ma per fortuna non ricordo esattamente quanto... 😅 Mi sembra di ricordare intorno ai 160€
Dopo poco che entro sul mercato nVidia fiuto l'affare e acquisi Ageia, per poi implementare hw e sw con i famigerati CUDA cores... Gia dalla GTX 8800 mi pare.

E' un peccato che non venga sfruttata quanto merita il PhysX... in Metro 2033 aiutava parecchio a creare l'atmosfera, come anche in altri giochi.
 
È evidente che il processo produttivo migliore ed una maggiore attenzione nella gestione dei VRM ha portato a benefici.
Le 3090 e 3090 Ti avevano dei grossi problemi nella gestione dei picchi (al punto che ne sono morte diverse…) e probabilmente Nvidia ha modificato il progetto.
Notevole vedere come la scheda consumi 450W ed arrivi ”solo” a picchi di 550W mentre le precedenti con 400W arrivavano a 600W…

La miglior gestione dei picchi si deve sicuramente a miglioramenti fatti nel VRM e forse in parte anche a una diversa taratura software del GPU boost. Il processo produttivo migliore è il principale artefice del miglioramento di efficienza generale (se non l'unico artefice).
Comunque sulla RTX3090ti già in parte i picchi erano stati limitati, altrimenti davvero avrebbe fatto spegnere anche alimentatori da 850 watt... Ma con la 4090 hanno completato il processo e adesso praticamente siamo dell'ordine del 10% in più del TBP per i picchi di potenza, escludendo gli outliers.

Penso che renderizza do a 1080p o 2k col dlss, la scheda non venga utilizzata al 100% ma probabilmente nea che 90-80%. Per quello consuma poco.

Certo non è male ma non mi pare una grande cosa che la scheda consumi poco quando resta parzialmente inattiva per via del carico.

No, non è per questo. Sicuramente in alcune circostanze la GPU, usando il DLSS, ricade in situazioni CPU limited e quindi il consumo scende ulteriormente: questo può succedere nel caso si veda un consumo intorno ai 300 watt, tipo Far Cry 6.
Ma ad esempio, in Cyberpunk in 4k con RT al massimo, anche con il DLSS a quality, la GPU è sicuramente impegnata al 100% abbinata a una CPU di fascia alta (Ryzen 9 7950x nell'esempio che ho postato), però il consumo scende di quasi 100 watt.
Attivando il DLSS, credo che la GPU lavori in modo diverso, perchè parte del tempo di occupazione è costituito dall'upscaling operato dai Tensor Core, fase in cui evidentemente la GPU consuma meno.

La stessa cosa, avviene, all'incontrario, con il Ray Tracing: senza Ray Tracing la GPU consuma meno, anche se è occupata al 100%.
Sempre prendendo ad esempio Cyberpunk, c'è anche un test di TPU interessante:

In fondo alla pagina si vede che la RTX4090 senza ray tracing consuma circa 400 watt, con ray tracing oltre 470 watt (comunque forse è un consumo di picco), ma con DLSS quality scende a 355.
Poi scende ulteriormente a 280 circa nel caso si usi il DLSS a performance, ma in quel caso si ricade già, forse, in una situazione CPU-limited.

Comunque sta di fatto che non basta più guardare al TBP per sapere quando consuma la scheda in gaming, almeno con la RTX4090. Molte volte, anche se sfruttata al 100%, trova prima il limite di tensione che il limite di potenza.
 
Ultima modifica:
Mi ricorda la stessa cosa di inizio 2000 col lens flare, che lo mettevano ovunque 😅
Portal-J.J.-Abrams-Abbiamo-una-sceneggiatura-in-fase-di-stesura.jpg


(il peggior regista post 2000).
 
Il ray tracing è una tecnologia che migliora sensibilmente la grafica se applicato bene al motore di gioco
E soprattutto se la parte raster è fatta male.

E se non ci credi, prendi rdr2 (che è solo raster) e dimmi cosa c'è da migliorare sensibilmente nella illuminazione.

Dai un occhiata alla discussione "i migliori screen dei videogiochi" se vuoi, ne ho messi parecchi di rdr2 e l illuminazione non solo è ottima, ma ricreare gli stessi effetti con il rt sarebbe ai limiti della pesantezza gestibile dalle schede odierne (anche le 3000).
 
E soprattutto se la parte raster è fatta male.

E se non ci credi, prendi rdr2 (che è solo raster) e dimmi cosa c'è da migliorare sensibilmente nella illuminazione.

Dai un occhiata alla discussione "i migliori screen dei videogiochi" se vuoi, ne ho messi parecchi di rdr2 e l illuminazione non solo è ottima, ma ricreare gli stessi effetti con il rt sarebbe ai limiti della pesantezza gestibile dalle schede odierne (anche le 3000).
guarda non son d'accordo il ray tracing migliora sempre la grafica anche quando è fatta benissimo la rasterizzazione presenta diversi problematiche @BrutPitt te lo può confermare, da un illuminazione che sdi solito è "sbagliata"a delle ombre che sono irrealistiche.

Ci sono decine di video in rete ANCHE su RDR2 con applicato il ray tracing con il reshade dove è evidente un miglioramento grafico abbastanza evidente, nonostante il gioco sia di per se già fatto in maniera eccellente

aggiungo che quella discussione di cui parli è tendenziosa in quanto non dimostra assolutamente nulla ma dimostra solamente che un profano che non sa dove guardare non sa riconoscere un effetto in RT da uno screen
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top