Ho visto l'approfondimento (sponsorizzato, ricordiamolo) di DigitalFoundry sul DLSS 3.0.
Rappresenta un cambio di paradigma rispetto alle attuali tecnologie di ricostruzione dell'immagine (DLSS 1/2,FRS 1/2 e XeSS): l'AI non modifica i frame ma li aggiunge. Quindi tra il frame A e quello C, alla risoluzione nativa, inserisce un terzo frame totalmente creato dal nulla.
L'idea alla base di ciò, e secondo me uno dei motivi per cui è stato limitato alla serie RTX 4000, è dare ulteriore fluidità accettando l'approssimazione (il frame generato dalla AI è imperfetto): le altre tecnologie mirano a rendere giocabile un framerate basso, il DLSS 3.0 mira a rendere più fluido una situazione già buona in partenza. Un'imperfezione a 200 fps è più difficile da percepire, questo è il senso.
Alla luce della transizione che sta avvenendo verso monitor con refresh rate più elevato.
Questo è quello che sono riuscito ad estrapolare dal video. Guardate in particolare gli ultimi segmenti che mostrano la qualità della ricostruzione, per il resto aspetteremo le recensioni.
Linka pure quando trovi un video interessante, facilita la presa visione da parte di chi è interessato (a parte che si trova facilmente in questo caso):
A parte la spiegazione su come funziona e i benchmark riguardanti le prestazioni, cose più o meno già viste in precedenza sotto altra forma, è molto interessante, seppur ancora limitata a livello di quantità di dati, la prova riguardante la latenza.
In pratica il DLSS 3.0 aumenta gli FPS ma aggiunge latenza, ed è una cosa nuova: finora framerate e latenza erano legate quasi sempre da una proporzionalità inversa, ovvero più framerate, meno latenza e viceversa. Con il DLSS 3.0 si ha molto più framerate, ma anche un po' più di latenza.
Questo rimane, per quanto si è visto finora, il limite principale della tecnologia, perchè la ricostruzione dell'immagine sembra veramente fatta bene: ci sono degli errori anche ben visibili se si osservano i frame ricostruiti singolarmente, ma nella sequenza dei fotogrammi sembrano assolutamente impercettibili. E in ogni caso fa molti meno errori il DLSS3.0 rispetto a qualsiasi algoritmo di interpolazione tradizionale, il chè è francamente sorprendente visto che i frame sono generati in modo molto rapido.
Quando finirà l'embargo, sono curioso di vedere degli approfondimenti sulla questione latenze e anche come si comporta la tecnologia di interpolazione a framerate più bassi.
Come l'upscaling funziona meglio ad alta risoluzione, immagino che l'interpolazione funzioni meglio partendo già da un buon framerate, perchè ha più informazioni per ricostruire i movimenti degli oggetti o, in altri termini, c'è meno differenza tra un frame e l'altro perchè i frame rappresentano istanti di gioco pù vicini tra loro.
Però questo DLSS 3.0 penso abbia le potenzialità per essere davvero una tecnologia interessante, magari non per gli esports o gli sparatutto più frenetici dove la latenza è tutto, ma in tutti gli altri giochi sì.
io invece ho notato che la tendenza di oggi è di partire dall'assunto che tutto fa schifo, tutto costa troppo, tutto non vale la pena, tutto era meglio prima.
mi sembra di parlare con i vecchi del 1900 che dicevano: "ai tempi miei". :D
ai tempi miei un 486 l'ho pagato 6 milioni di lire. La roba buona è costata sempre cara e non ci ha mai regalato niente nessuno.
spariamo merd@ su tutto conoscendo niente.
non mi risulta che qui ci siano dei luminari dell'hardware (me compreso ovviamente), però tutti sanno cosa non va e hanno la soluzione che avrebbe potuto creare un prodotto migliore.
Vedo video di youtuber con centinaia di migliaia di iscritti che "aggiustano" gli zen 4 mandandoli a 60°C.
si è arrivati a dire che raptor è un semplice overclock di alder lake quando in più di 30 anni che compro CPU di refresh così me ne ricordo poche.
diciamo che Intel che introduce una GPU per la prima volta capace di competere con i colossi del settore è un disastro.
Era meglio Windows XP.
Se non girano bene le DirectX 9 (uscite nel 2002) io non lo compro.
Lunga vita alle DDR4 per altri 15 anni. Quando usciranno le DDR7 forse sarà il momento di comprare le DDR5.
il DLSS3 si poteva certamente fare anche sulla serie 3000, bastardi. è tutto un gomblotto.
su questo thread tutti hanno la serie 3000 (IMHO una delle peggiori schede degli ultimi anni) ma tutti criticano le RTX4000 che sono sicuramente molto meglio delle 3000 all'uscita.
concezione comune che il 12900K/13900K o il 5950X/7950X non serve a niente.
non si sa perchè. un 12700K è utile, ci si fa qualcosa, con il 12900K invece non ci si fa niente.
boh, mi sento un pesce fuor d'acqua. magari sono fatto male io ma io non sono d'accordo su niente.
Concordo sul fatto che noi in generale non siamo nessuno rispetto agli ingegneri che progettano l'hardware e bisogna tenere presente della propria limitatezza nello "sparlare" del lavoro altrui. Però, pur nella mia limitatezza, gli occhi per vedere ce li ho.
I prezzi negli ultimi anni stanno esplodendo in modo vergognoso: soprattutto su schede video e schede madri si sta veramente perdendo il senso della misura.
In più, tutti i produttori, Nvidia, AMD, Intel, già da qualche anno (ma ora è peggio) stanno vendendo i propri chip sempre più tirati per il collo. Tu forse penserai che è una cosa positiva avere hardware già spremuto al 100% di default, ma per me non lo è, perchè si obbliga gli utenti a convivere con difficioltà di raffreddamento, di alimentazione e soprattutto l'efficienza è drasticamente inferiore a quella che invece si potrebbe ottenere.
Io sarei per un drastico cambio di paradigma: non più hardware ottimizzato e spremuto per le massime prestazioni, ma hardware impostato per lavorare innanzitutto in maniera efficiente e secondariamente con un occhio alle performance. Altrimenti l'assurda corsa dei watt non finirà mai.
Il fatto che i produttori spesso lascino la possibilità agli utenti di modificare i parametri di funzionamento e quindi, volendo, di avere più efficienza è solo parzialmente d'aiuto, perchè comunque per farlo si riducono le prestazioni, ovvero l'hardware non è più in grado di fornire le prestazioni che sono state pubblicizzate e che sono certificate, in un certo senso, dai benchmark nelle recensioni di terze parti. E sinceramente questo lo trovo scorretto.
può anche essere ma sarebbe piuttosto da sciocchi, vedremo
In ogni modo Nvidia non perde occasione per dimostrarsi "odiosa", fatto sta che queste schede video partono con un "hype" dell'utenza di comprarle sotto 0
Per le RTX 3000 ricordo benissimo che l'hype era "fuori scala"
due situazioni diametralmente opposte
Alla mancanza di hype contribuiscono per larga parte i prezzi folli... Altrimenti l'hype ci sarebbe eccome, anche se per ora queste schede non sembrano niente di straordinario a livello tecnico.