UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
spetta che ne ho un altra che è una bomba non hanno messo nemmeno il display port 2.0 sulle 4090

Così unoc he vuole giocare a 4k è bloccato a 120hz 😁 😁 😁 😁



Davvero una figata hai una scheda che in 4k con il dlss 3 che può fare millemilaframe ma sei bloccato an vita 4k 120

Praticamente come la ps5!
 
con il senno di poi EVGA ha fatto la mossa giusta abbandonando un partner così inaffidabile.
Solo che rischia di costargli caro...
Ci hanno visto lungo quelli di evga secondo me, e non penso che abbiano azzardato dai, sono un'azienda seria loro.
spetta che ne ho un altra che è una bomba non hanno messo nemmeno il display port 2.0 sulle 4090

Così unoc he vuole giocare a 4k è bloccato a 120hz 😁 😁 😁 😁



Davvero una figata hai una scheda che in 4k con il dlss 3 chepuò fare millemilaframe ma sei bloccato an vita 4k 120

Praticamente come la ps5!
Vedrai che il furbetto ha fatto apposta per tenerselo per una fantomatica 4090Ti.
Ormai a pensare male di Nvidia ci si azzecca sempre
 
spetta che ne ho un altra che è una bomba non hanno messo nemmeno il display port 2.0 sulle 4090

Così unoc he vuole giocare a 4k è bloccato a 120hz 😁 😁 😁 😁



Davvero una figata hai una scheda che in 4k con il dlss 3 che può fare millemilaframe ma sei bloccato an vita 4k 120

Praticamente come la ps5!
Questo è uscito dopo il rumor sulle nuove amd che avranno la 2.1 anche se ancora non è certificato da Vesa, ma questione di tempo

 
spetta che ne ho un altra che è una bomba non hanno messo nemmeno il display port 2.0 sulle 4090

Così unoc he vuole giocare a 4k è bloccato a 120hz 😁 😁 😁 😁



Davvero una figata hai una scheda che in 4k con il dlss 3 che può fare millemilaframe ma sei bloccato an vita 4k 120

Praticamente come la ps5!
Si ho sentito questa cosa. Peggio ancora, una gpu che fa 200 fos in 4k per farne 120. Vabbè. Io mi sa che mi tengo la mia cara 3090, vendo la 3080ti e mi butto su AMD se sforna bene
 
Si ho sentito questa cosa. Peggio ancora, una gpu che fa 200 fos in 4k per farne 120. Vabbè. Io mi sa che mi tengo la mia cara 3090, vendo la 3080ti e mi butto su AMD se sforna bene

Se ci pensi bene è assurdo

Faccio une sempio banale

Tizio X ha sepso 549 euro per la ps5 s gioca a 4k 120hz su warzone

Tizio Y ha speso 2,5k e gioca a 4k 120hz su warzone

E' da manicomio
 
bugiardi cronici.

Se davvero fosse così avrebbero solo corretto il nome mantenendo il lancio.
Invece stanno rimandando la "4070" ad un futuro in cui avranno liberato il mercato dalle 3000 invendute.

Fanno schifo.



si, con il senno di poi EVGA ha fatto la mossa giusta abbandonando un partner così inaffidabile.
Solo che rischia di costargli caro...
EVGA cosa produce?Se non ricordo male avevo letto che il 70-80% del loro fatturato dipendeva dalla vendita di GPU costum...
 
Traduco per chi non capisse l'inglese:

"La rtx 4080 12GB è una fantastica scheda grafica se solo si chiamasse RTX 4070 e costasse 599$. Ci scusiamo per essere stati più delinquenti e disonesti del solito, purtroppo abbiamo sottovalutato la situazione, pensavamo che la massa fosse già pronta a 90° ma a quanto pare non tutti. Riproporremo questa scheda grafica con il corretto nome e prezzo dopo aver finito l'altra strategia di marketing disonesta che stiamo attuando da più di un anno con le RTX 3000.
Ci teniamo anche a precisare che il DLSS 3 è un esclusiva delle RTX 4000 perché, perché, ........ mmmhhh, ci sta un "coso" nelle rtx 4000, un "coso" vicino le vram che potenzia il segnale di entrata dei transistors e quindi potenzia la IA, ok per me è troppo mi licenzio."
 

Allegati

  • 1665774882514.webp
    1665774882514.webp
    42.2 KB · Visualizzazioni: 26
Cioè per passare da 117fps a 130fps (+1%) la potenza passa da 329w a 527w (+37%)
A parte che da 117 a 130 l'incremento è dell'11% e non 1% il resto del discorso non fa una piega
Stirate fino oltre il limite di efficienza, se fossero stati davvero tranquilli della supremazia prestazionale l'avrebbero limitata sui 300-330W dove esprime il meglio di se (ma anche la mossa di tenere i chip full da parte è legata ad avere una carta da giocare se la concorrenza avesse prestazioni migliori)

EDIT: però hai sbagliato anche sul consumo, 527W sono il 60% in più di 329W
Se invece prendiamo come base 130@527, scendere a 117@329 perde -10% di prestazioni e -38% di consumi
 
Ultima modifica:
spetta che ne ho un altra che è una bomba non hanno messo nemmeno il display port 2.0 sulle 4090

Così unoc he vuole giocare a 4k è bloccato a 120hz 😁 😁 😁 😁



Davvero una figata hai una scheda che in 4k con il dlss 3 che può fare millemilaframe ma sei bloccato an vita 4k 120

Praticamente come la ps5!
Giusto per spezzare un'arancia ("una lancia" sarebbe troppo 😁 ) a favore di NVidia, c'e' da dire che i monitor con DP 2.0, attualmente in commercio, si contano sulla punta delle dita (anche se ne sono stati annunciati diversi), e che quindi il 4K @144Hz lo si raggiunge tramite l'HDMI 2.1 ... oppure tramite il DP 1.4 attraverso un "chroma subsampling" (e.g. 4:4:4 --> 4:2:2, che pero'/quindi "appiattisce"/riduce la qualita' cromatica) oppure usando il DSC (Display Stream Compression)

Ma cio' detto, sono sempre piu' convinto che gia' il prossimo anno avremo il lancio della 5090.... e il mancato connettore DP 2.0 parrebbe proprio un altro indizio

Senza contare che anche AMD avrebbe l'intenzione di lanciare RDNA4 (serie 8000) entro il 2024, quindi nel 2023... e lo aveva gia' dichiarato a giugno:

 
Ultima modifica:
Ma non è vero !

Cioè, amore per AMD, verissimo, ero addirittura tentato di votare PD alle elezioni per via della somiglianza tra Dr. Lisa Su e rosy bindi.

Che sono sempre convinto e non accade mai invece non è vero. In passato la mia critica era diversa, e cioè che il ray tracing era una fregatura di nvidia ed era meglio a quel punto preferire Amd.

Per questa gen invece sono assolutamente convinto e certo che forse Amd batte nvidia in raster.
E nvidia lo sa, altrimenti non avrebbe spinto così tanto sui consumi pur di spremere anche l'ultimo punto % dalla 4090.

Tornando in tema infatti, credo sia curioso questo test (se non è già stato detto):

Visualizza allegato 443672

Cioè per passare da 117fps a 130fps (+1%) la potenza passa da 329w a 527w (+37%) 😳🤯
E non credo sia l'engine che satura o la cpu che va in bottleneck (non ricordo ma sarà fatto almeno a 4k).
E' proprio la 4090 che esce in tutti i modi da qualsiasi linea di efficienza.
Eppure hanno ritenuto che anche quel 1% servisse.
Hanno paura.
E fanno bene.
W AMD!
Si l'ha postato @Ottoore ... guarda che è la stessa cosa che ha fatto AMD con Zen 4 eh : rinunciare all'efficienza pur di avere la barra più lunga nei grafici. Si fossero fermati qualche Watt prima non avremmo CPU assurdamente a 95⁰
faccio il tifo per AMD su RDNA 3 ma tu dimentichi che la nuova AMD è molto più simile ad Nvidia ed Intel di quanto non lo sia mai stata.
 
spetta che ne ho un altra che è una bomba non hanno messo nemmeno il display port 2.0 sulle 4090

Così unoc he vuole giocare a 4k è bloccato a 120hz 😁 😁 😁 😁



Davvero una figata hai una scheda che in 4k con il dlss 3 che può fare millemilaframe ma sei bloccato an vita 4k 120

Praticamente come la ps5!
Sempre meglio 🤦🏻‍♂️
Quindi una scheda con consumo assurdo per fare millemila FPS in 4K e poi non li può visualizzare ?

Ma è confermata sta cosa ? Perché le review vanno ben oltre i 120 FPS 🤔
 
Pubblicità
Pubblicità
Indietro
Top