Sono d'accordo con te ma su cyberpunk 2077 a me il dlss 3.0 mi avrebbe fato comodo. Non perché la mia gpu ne ha bisogno, ma perché ci saranno sempre in commercio giochi ottimizzati con i piedi.
Un esempio recentissimo. Plague tale requeim è un macigno, anche li avrebbe fatto comodo un dlss 3 sulle vecchie generazioni. Una gtx 1060 6GB ( non può usufruire del dlss a prescindere ma è un esempio per far capire quanto sia pesante il gioco) non riesce a tenere i 30fps fissi in 1080p con tutti i settaggi al minimo. E' semplicemente ridicolo, stiamo parlando di una gtx 1060 6GB, ribadisco tutto al minimo in 1080p non riesce a tenere i 30fps fissi.
La mia ragazza ha una rtx 3060 è in 1080p con dlss su qualità, per stare sopra i 60fps deve abbassare due settaggi grafici a medio e il resto su alto. Vergognoso e ringraziamo che cera il dlss 2 altrimenti una rtx 3060 neanche in 1080p poteva offrire un esperienza dignitosa.
Se io mi occupassi delle recensioni dei videogames, avrei dato al gioco 6 come voto, poiché nonostante graficamente sia bello, la trama è interessante ecc resta il fatto che è ottimizzato talmente male che se fossi uno dei sviluppatori mi vergognerei a pubblicarlo su pc.
La mia paura è che per colpa di queste tecnologie gli sviluppatori possano diventare pigri, del tipo che non ottimizzano il gioco perché tanto ci sta il dlss 2 o 3.
Il DLSS 3 però non sarà mai una tecnologia "salva schede vecchie", che può dare nuova linfa a GPU che garantiscono una esperienza al limite della giocabilità.
Il DLSS 3 funziona bene se si ha già una buona fludiità di base e lo si usa per saturare le possibilità di uno schermo ad alto refresh, in giochi dove la latenza non è un fattore troppo sensibile.
Se fai 30fps e usi il DLSS 3 per arrivare a 60 l'esperienza sarà pessima: latenze esagerate e artefatti di interpolazione fastidiosi. Questo per lo meno è ciò che dicono i primi test.
Un 10 fps in più su valhalla. PErò se devo avere temp più alte, non ne che ne avevo bisogno tutto sommato
Le temperature leggermente superiori probabilmente sono dovute al fatto che uno dei miglioramenti introdotti dai nuovi driver è la riduzione di possibili colli di bottiglia dovuti alla CPU: Valhalla tra l'altro è uno dei giochi che ne benefica maggiormente, perchè di base c'era una situazione in cui le GPU Nvidia soffrivano abbastanza, specialmente a bassa risoluzione a confronto con AMD (indice di un problema di bottleneck, appunto).
Come detto, potresti benissimo usare un undervolt leggermente più aggressivo, in termini di tensione e frequenza, per ritornare alle temperature di prima con più prestazioni. Quindi i driver nuovi rimangono un miglioramento da ogni punto di vista.
Ultimamente Sony e nelllo Nixxes stanno facendo un gran bel lavoro con i porting per pc.
Il 3 novembre AMD presenterà le nuove schede, ma se oggi dovessi scegliere di acquistare una scheda video probabilmente prenderei una 6900xt
Non so, perchè anche se la RX6900 XT è scesa parecchio di prezzo, la RTX3080 12GB rimane poco più costosa e offre, a fronte di prestazioni in rastering leggermente inferiori, supporto al DLSS e migliori prestazioni in ray tracing.
Chi compra una scheda del genere probabilmente utilizza un monitor QHD ad alto refresh, quindi il peso specifico di RT e DLSS è piuttosto elevato. Per quanto riguarda il DLSS, non tanto perchè l'FSR 2.0 non funzioni bene (funziona bene, anche se leggermente peggio dell'ultima versione di DLSS 2), bensì perchè non è disponibile in tutti i giochi dove c'è il DLSS.
AMD la vedo meglio piazzata nella fascia medio-bassa: RX6600, RX6650 XT, RX6750 XT sono tutte schede molto competitive, decisamente più veloci delle controparti Nvidia in rastering.
Inoltre, nella fascia bassa (per quanto possa essere fascia bassa quella che comprende schede da 300 e rotti euro) il ray tracing diventa un fattore meno influente, perchè difficilmente si riesce a gestirlo senza compromettere eccessivamente le prestazioni o senza dover rinunciare ad altri dettagli. Rimane la mancanza di supporto al DLSS, ma innanzitutto il peso specifico delle tecnologie di upscaling è ridotto se si usa un monitor a 1080p (probabile con schede del genere), perchè introducono una perdita di qualità maggiore, e in secondo luogo è una mancanza perdonabile nella misura in cui, la scheda, di base, offre prestazioni significativamente più alte.