UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Voglio sperare che stai scherzando! Corridoi bui illuminati solo da torce, rovine abbandonate dentro cui filtrano pochi raggi di sole dall'esterno: in realtà è proprio il tipo di giochi dove si formano ombre e riflessi veramente realistici. Forse sei abituato ai giochi di adesso dove inzeppano le scene di specchi e luci al neon al solo scopo di enfatizzarlo, ma il ray-tracing è ben altra cosa...
nel caso di Diablo non mi fermo a vedere gli effetti di luce se sono circondato da orde di mostri
 
Io ti dico la verità Bat, neanche in regalo la vorrei una rdna3, fallimentari sotto ogni punto di vista
beh, regalata sì ma nel senso letterale del termine: AMD o chi per lei che me la regala, poi la rivendo e mi compro una NVidia
Vergognosa amd a non essere uscita con quei prezzi all'inizio
ha giocato sul prezzo assurdo delle NVidia e adesso corrono ai ripari avendo schede inferiori in tutto eccetto che in grafica raster per cui qualunque scheda odierna è molto più che adeguata
 

Jensen:
yes-desmaiei.gif
 
beh, regalata sì ma nel senso letterale del termine: AMD o chi per lei che me la regala, poi la rivendo e mi compro una NVidia

ha giocato sul prezzo assurdo delle NVidia e adesso corrono ai ripari avendo schede inferiori in tutto eccetto che in grafica raster per cui qualunque scheda odierna è molto più che adeguata
AMD con la serie 7000 aveva un calcio di rigore, ha bittato tutto alle ortiche
 
AMD con la serie 7000 aveva un calcio di rigore, ha bittato tutto alle ortiche

sono daccordo, ma ogni volta è sempre così con AMD, si parte sempre con buone/ottime aspettative per poi ritrovarsi delusi al lancio...

a questo giro, al di là delle performance pure in raster o RT che siano, poteva per lo meno giocare aggressivo sui prezzi, andando quindi a far ravvedere leggermente NVIDIA su quell'aspetto su cui sta perdendo il controllo, ma alla fine hanno ben scelto di fare lo stesso gioco... :(
 
Chissà come va in overclock invece 🤔 Magari portata sui 200-220W raggiunge la 3090/3080ti...
(poi non vale lo stesso la pena per 600 euro secondo me)

oggi avevo un pochino più di tempo, ti ho fatto qualche 3DMark e Superposition con la scheda in oc (a ridosso dei 220W max), siamo ancora lontanucci da RTX 3080Ti/3090, sfiora la 3080Ti giusto nel feature test DXR... :)

RTX 4070 OC +225core (boost effettivo tra i 3015 e i 3060 circa) e +1500vram (24Gbps)

speed3.webptime2.webptime-ext2.webpport2.webpsuper1080-2.webpsuper4k.webp
dxr2.webp
 
oggi avevo un pochino più di tempo, ti ho fatto qualche 3DMark e Superposition con la scheda in oc (a ridosso dei 220W max), siamo ancora lontanucci da RTX 3080Ti/3090, sfiora la 3080Ti giusto nel feature test DXR... :)

RTX 4070 OC +225core (boost effettivo tra i 3015 e i 3060 circa) e +1500vram (24Gbps)

Interessante, effettivamente non avevo pensato che la 4070TI (che è praticamente la stessa scheda salvo per i chip selezionati meglio immagino) supera di poco la 3090 ma arriva a 280W (stock).
Che la 4070 liscia arrivasse alla 3090/3080ti a 220w era praticamente impossibile. 🤔
 
Interessante, effettivamente non avevo pensato che la 4070TI (che è praticamente la stessa scheda salvo per i chip selezionati meglio immagino) supera di poco la 3090 ma arriva a 280W (stock).
Che la 4070 liscia arrivasse alla 3090/3080ti a 220w era praticamente impossibile. 🤔

la 4070Ti è un pelino meglio della 3090Ti (+8% in 1080p / +4% in 1440p) , salvo in 4K dove sta sotto di un 4%
 
Non so onestmente dove avete preso questi dati. Comunque questo è il progresso NVIDIA delle passate generazioni:
Visualizza allegato 457862

E questo è quello che abbiamo oggi con la 4070:
Visualizza allegato 457863

Si si, quello l'ho detto anch'io che la classe 70 era sempre stata la scheda che eguagliava le performance della top di gamma della serie precedente.

Qui intendevo che questa 4070 era impossibile che eguagliasse la 3090 a 220w dato che la TI ne richiede 280 di watt per arrivare a quelle prestazioni (un pelo oltre). Quindi sarebbe stato assurdo che una 4070 liscia eguagliasse una TI impiegando meno potenza.

Poi sul fatto che la vera 4070 dovesse essere stata la 4070ti e che sarebbe dovuta costare 500euro (come la 3070), e la 4070 di oggi sarebbe dovuta essere una 4060ti sono d'accordissimo.

Infatti sono tutte schede che meritano di restare sugli scaffali come stanno facendo.
 
Non so onestmente dove avete preso questi dati. Comunque questo è il progresso NVIDIA delle passate generazioni:
Visualizza allegato 457862

E questo è quello che abbiamo oggi con la 4070:
Visualizza allegato 457863

e con tutta probabilità con la x60 andrà peggio, purtroppo più si scende e peggio è con questi tagli... :(

un'indiscrezione su TPU confermerebbe i 128bit e gli 8GB di vram per AD106-350 (RTX 4060 Ti)...

 
Pubblicità
Pubblicità
Indietro
Top