UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Quel prezzo doveva averlo all'uscita per essere """buono""".

Adesso lo hanno calato perché con la 4070ti diventava troppo imbarazzante il confronto, ma non hano migliorato nulla anche tagliando 100euro.

Dici che si trovano anche sugli 800, bene le 4070ti si trovano a 150euro in meno, vanno un 10% meno in raster, e costano 20% in meno.
Senza contare il ray tracing e il ray tracing. Dove nvidia ovviamente vince.
Dimmi te se può esistere una roba del genere 😅
La rosy bindi asiatica si è bevuta il cervello.

Una gpu amd non è più la scelta economica ma "conveniente".
E' la scelta dei fanboy amd. Altri motivi per prendere una radeon oggi non ne vedo (e lo dico da ex fan).
Si vero, ma un momento. Per chi interessato al 4k la 7900xt va molto meglio della 4070ti in quella risoluzione, e non di poco eh....
 
Ultima modifica:
Cerca sul microsoft store Dolby Vision Extensions
Dimenticavo da quel poco che so richiede dolby access
Ma non è un vero DV. Ne oarlavamo con @Ottoore In qualche post aoerto da me.
--- i due messaggi sono stati uniti ---
ho capito, ma secondo voi come tv oled da affiancare a una rtx 4000, cosa sarebbe meglio tra un samsung qd oled (s95b) o un panasonic oled lz1000 ad esempio?
Oled LG C1, C2, B2. Hanno ottima resa sul gaming, hanno la stessa interfaccia game mode dei monitor LG ultragear. Io ho un C1 e un B2. Entrambi ortimi. Il B2 cista meno. Si trova anche sotto i 1000 . Mi trovo benissimo
 
Per farla breve: Windows supporta solo la modalità DV Low Latency, Windows non permette alla scheda grafica di passare i metadati dinamici al display quindi converte in HDR10 e invia al display.

Quindi in fin dei conti si può dire che Windows non supporti ufficialmente il Dolby Vision, sempre meglio usare le app preinstallate o lettori esterni.

*Il dolby vision nei videogiochi su pc, ce ne fu qualcuno diversi anni fa, è un discorso differente ma poco importa: è stato abbandonato da tempo.
 
Per farla breve: Windows supporta solo la modalità DV Low Latency, Windows non permette alla scheda grafica di passare i metadati dinamici al display quindi converte in HDR10 e invia al display.

Quindi in fin dei conti si può dire che Windows non supporti ufficialmente il Dolby Vision, sempre meglio usare le app preinstallate o lettori esterni.

*Il dolby vision nei videogiochi su pc, ce ne fu qualcuno diversi anni fa, è un discorso differente ma poco importa: è stato abbandonato da tempo.
quindi supporta hdr10+ di samsung?
 
quindi supporta hdr10+ di samsung?
Più di un anno fa Samsung pubblicò un articolo a proposito del "HDR10+ GAMING" in collaborazione con Nvidia, Sono stati rilasciati dei driver compatibili ma non si è mai visto un'integrazione in W11 né giochi compatibili.

Ad oggi in windows hai l'implementazione base dell'HDR a metadati statici, HDR10.
 
Finalmente!
Da quanto la aspettavi?
All’inizio avevo ordinato una TrioX, ma non è stata disponibile per dieci giorni, così mi sono stancato di aspettare ed ho preso la Gaming O.C, che è anche superiore come Gpu e “fortunatamente“risultava disponibile.
Dal momento dell’ordine di questa, alla consegna sono passate due settimane, ma c’è stata anche Pasqua di mezzo.
 
Si ma i driver? Purtroppo il problema con le Radeon è sempre lì... Ripurtroppo Nvidia é tecnologicamente superiore, e non lo dico io, sono dati oggettivi. E lo dico odiando Nvidia con tutto me stesso.
Guarda cosa ho scritto a Bang4BuckPC,


Skonvolt Skonvolt
20 ore fa
Hi Bang4BuckPC, I would like to know what you think about amd and nvidia drivers and their stability, thanks

Bang4BuckPC Gamer
2 ore fa
@Skonvolt Skonvolt lately pretty stable on both. They both make mistakes every now and again, but AMD have improved a lot.
 
Guarda cosa ho scritto a Bang4BuckPC,


Skonvolt Skonvolt
20 ore fa
Hi Bang4BuckPC, I would like to know what you think about amd and nvidia drivers and their stability, thanks

Bang4BuckPC Gamer
2 ore fa
@Skonvolt Skonvolt lately pretty stable on both. They both make mistakes every now and again, but AMD have improved a lot.
Perdonami ma non ho voglia di entrare in sterili polemiche da fanboy... Ben venga se amd migliora il proprio lavoro.
Io sono fanboy della migliore tecnologia al giusto prezzo qualunque sia il colore, non è che se la Ferrero (😅) fa una vga migliore dei soliti noti farabutti non la prendo perché la fa la Ferrero... Chi se ne frega del colore
 
Perdonami ma non ho voglia di entrare in sterili polemiche da fanboy... Ben venga se amd migliora il proprio lavoro.
Io sono fanboy della migliore tecnologia al giusto prezzo qualunque sia il colore, non è che se la Ferrero (😅) fa una vga migliore dei soliti noti farabutti non la prendo perché la fa la Ferrero... Chi se ne frega del colore
Giusto giustissimo
😉😉😉😉😉
 
E' uscita l'intervista allo sviluppatore di Infinity Ward sul canale di Mooreslawisdead. (Parlano della ram a 15:36)

Dicono che tra pochi anni ci saranno già i primi casi di giochi tripla A che avranno problemi a girare sulle schede da 12Gb
Io ci penserei due volte prima di prendere una 4070 / 4070ti. E poi non la comprerei. 😬 😬 😬

Da quanto ho capito, non si può fare solo un discorso del peso delle texture per evincere la massima vram richiesta per ogni data risoluzione.
Oltre alle texture la Vram è utilizzata per sempre più cose (ray tracing, effetti, ecc...) e questo trend è destinato ad aumentare poiché si cerca di spostare quante più possibili cose sulla gpu per aumentare le performance, e questo richiede più Vram.

8 Gb saranno pochi anche in 1080p e 12gb saranno pochi anche in 1440p.

Gli sviluppatori lottano già contro la poca vram per cercare di far stare quanto più possibile negli 8gb ma questo preclude la possibilità di creare giochi con una qualità grafica "next gen" e sembra non manchi troppo prima che si decida di relegare la fascia dai 12Gb in giù a fascia bassa (dove bisogna disattivare alcuni effetti, abbassare le texture, ecc per poter giocare). La fascia media sarà quella dei 16Gb.

Vedremo i prossimi tipla A cosa faranno, ma le stesse cose le aveva dette un altro sviluppatore (Unreal Engine 5) prima di lui.

Poi magari HardwareUnboxed, Mooreslaw, gli sviluppatori ecc... fanno tutti parte di un complotto orchestrato da amd che mette più vram sulle schede... Ma magari è soltanto la realtà 🤔
 
Non so se collegare 4 cavi pcie-e 8pin(psu) che splittano a 2x8(gpu),o collegarne 3, di cui 2 ne collego direttamente e l’altro cavo collego anche lo split.
In teoria dovrebbero portare 300W a cavo, prima con la 3080 ne avevo collegato solamente uno da 8pin(psu) che splittava a due da 8pin(6+2) per la gpu, quindi porta 300W.
L’adattatore nVidia per questa custom è da 4 pcie-e(8 pin), dato che porta fino a 600W.
Qualcuno riesce a consigliarmi? grazie
 

Allegati

  • 874EA132-2650-4256-A3C1-C03DA524DF32.webp
    874EA132-2650-4256-A3C1-C03DA524DF32.webp
    783.2 KB · Visualizzazioni: 23
  • 0ADAA5BF-5D3F-4E0C-A480-D5453725D8C5.webp
    0ADAA5BF-5D3F-4E0C-A480-D5453725D8C5.webp
    1.1 MB · Visualizzazioni: 22
Pubblicità
Pubblicità
Indietro
Top