UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
come il denoiser migliora le performance permettendo di fare il raytracing con meno raggi!

No non ahi capito proprio il funzionamento del denoiser se la vedi cosi


. If you look inside the actual technology of DLSS you will see that de-noising is an essential part of the overall deep learning model of DLSS. "
non dice nulla dice semplicemente che il Denoiser fa parte di una serie di algoritmi che milgiorano la qualità dell'immagine

E' spiegato perfettamente nel link sopra il denoiser attuale è gestitio da 3 software diversi! come fa ad eessere un upscaer per te proprio non ci arrivo

Per la cronaca pure AMD usa i suopi algoritmi di denoiser per la precisione 2 se fosse come fidici tu basterevbbe usare FSR mentre sono cose completamente diverse



Vi faccio una tabella:

aumento qualità in RASTERIZZAZIONE
aumento qualità in RAY TRACING
SENZA IAFSRDENOISER
CON IADLSSDLSS 3.5

Non hai capito il denoiser è un qualcosa che è paerte integratnte nel processo di pipeline grafica indipendentemente al ray tracing o meno

stai mischiano mele e pere in immagine con illuminazione in RTX sarà più "rumorosa" di una con un rasterizzazione normale il denoiser serve SEMPRE indipendentemente se utilizzi il RTX o meno

Con RTX la qualità del denoiser è importante perchè a seconda della quantità di informazioni presenti riesce a restituire un immagine più o meno accurata a seconda delgi algoritmi utilizzati

AMD ne utilizza 2 unio per le ombre uno per i riflessi

Nvidia adesos utilizza 3 software diversi che si basano su riflesso ed occlusione ombre e illuminazione globale
 
Ultima modifica:
Te la faccio breve, il filtro denoise nella pipeline grafica( in questo caso RT), non è accurato e porta a perdita di dettagli(pixels), il Ray Reconstruction è cinque volte più accurato, quindi avrai un maggiore dettaglio e fedeltà grafica finale.
detta in maniera breve è giusto l'attuale denoiser ha una fedenltà peggiore in quanto in alcuni franenti non riesce a distinguere bene i cosiddetti "bad pixel" portando alle slavature
 
La pipeline prevede che l'engine di gioco generi materiale e geometria, senza effetti di illuminazione.
Poi, nella fase successiva, avviene il campionamento dei raggi per costituire gli effetti di luce, che si tratti riflessi o illuminazione globale.
In questo processo, però, non può essere aggiornato ogni singolo pixel con illuminazione in costante evoluzione (raggi che rimbalzano), la mole di calcoli sarebbe spropositata, quindi ci sono delle informazioni mancanti, ed è lì che subentrano i denoiser che si occupano di andare a colmare quei pixel mancanti con tecniche spaziali e temporali.
L'immagine in RT viene così composta a bassa risoluzione e poi sottoposta a upscaling a risoluzione nativa.
I denoiser però, per quanto efficienti, non sono perfetti e NVIDIA ha ravvisato che restituiscono effetti di luce inaccurati, oltre a un'illuminazione globale e riflessi di qualità inferiore. Nel primo caso succede che accumulano pixel "cattivi" da frame precedenti che non consentono una riproduzione corretta della luce, mentre nel secondo e nel terzo una carenza di dati non permette di interpolare un'illuminazione e un'immagine dettagliate. Inoltre, i denoiser rimuovono informazioni utili che sono richieste per l'upscaling.
Conscia di tutti questi problemi, NVIDIA ha messo a punto Ray Reconstruction, dando vita a quello che ha definito DLSS 3.5. La casa statunitense afferma che Ray Reconstruction è più intelligente dei denoiser e la tecnologia viene allenata con una mole di dati 5 volte superiore rispetto al DLSS 3 al fine di non perdersi nemmeno un dettaglio. La tecnologia integra dati aggiuntivi dell'engine, è in grado di riconoscere differenti effetti di ray tracing, quali sono i pixel "buoni" e "cattivi" per ricostruire la scena e mantenere informazioni essenziali per un upscaling migliore.


In pratica, il denoise entra in campo prima dell'upscaling dell'immagine, quando ancora il frame è primordiale a bassa risoluzione, e solamente dopo viene upscalato a risoluzione superiore, ma come spiegato qui, il denoise è poco accurato e porta a perdita di pixels/dettagli, mentre con questa nuova tecnica si è molto più accurati, quindi quando vai a passare dalla bassa risoluzione all'alta risoluzione(grazie alla rete neurale del dlss), si hanno molto più pixels accurati a disposizione, e la scena è semplicemente migliore,più dettagliata.
nvidia-dlss-35-1-22-08-2023.jpg

Dove leggi temporal Feedback lì avviene il DLSS2,(l'upscaling), e il Ray reconstruction, quindi sembrano entrambe tecniche temporali.
 
Ultima modifica:
La pipeline prevede che l'engine di gioco generi materiale e geometria, senza effetti di illuminazione.
Poi, nella fase successiva, avviene il campionamento dei raggi per costituire gli effetti di luce, che si tratti riflessi o illuminazione globale.
In questo processo, però, non può essere aggiornato ogni singolo pixel con illuminazione in costante evoluzione (raggi che rimbalzano), la mole di calcoli sarebbe spropositata, quindi ci sono delle informazioni mancanti, ed è lì che subentrano i denoiser che si occupano di andare a colmare quei pixel mancanti con tecniche spaziali e temporali.
L'immagine in RT viene così composta a bassa risoluzione e poi sottoposta a upscaling a risoluzione nativa.
I denoiser però, per quanto efficienti, non sono perfetti e NVIDIA ha ravvisato che restituiscono effetti di luce inaccurati, oltre a un'illuminazione globale e riflessi di qualità inferiore. Nel primo caso succede che accumulano pixel "cattivi" da frame precedenti che non consentono una riproduzione corretta della luce, mentre nel secondo e nel terzo una carenza di dati non permette di interpolare un'illuminazione e un'immagine dettagliate. Inoltre, i denoiser rimuovono informazioni utili che sono richieste per l'upscaling.
Conscia di tutti questi problemi, NVIDIA ha messo a punto Ray Reconstruction, dando vita a quello che ha definito DLSS 3.5. La casa statunitense afferma che Ray Reconstruction è più intelligente dei denoiser e la tecnologia viene allenata con una mole di dati 5 volte superiore rispetto al DLSS 3 al fine di non perdersi nemmeno un dettaglio. La tecnologia integra dati aggiuntivi dell'engine, è in grado di riconoscere differenti effetti di ray tracing, quali sono i pixel "buoni" e "cattivi" per ricostruire la scena e mantenere informazioni essenziali per un upscaling migliore.

In pratica, il denoise entra in campo prima dell'upscaling dell'immagine, quando ancora il frame è primordiale a bassa risoluzione, e solamente dopo viene upscalato a risoluzione superiore, ma come spiegato qui, il denoise è poco accurato e porta a perdita di pixels/dettagli, mentre con questa nuova tecnica si è molto più accurati, quindi quando vai a passare dalla bassa risoluzione all'alta risoluzione(grazie alla rete neurale del dlss), si hanno molto più pixels accurati a disposizione, e la scena è semplicemente migliore,più dettagliata.
nvidia-dlss-35-1-22-08-2023.jpg

Dove leggi temporale Feedback lì avviene il DLSS2, o l'upscaling.


come ho detto sopra in 2 parole sostituiscono una suite di 3 software con una tecnica che a detta loro è più accurata ed efficiente

Mi fa piacere in quanto non si pensa all'aumento delle performance ma a migliorare la qualità dell'imamgine senza che si perdano prestazioni
 
Mi fa piacere in quanto non si pensa all'aumento delle performance ma a migliorare la qualità dell'imamgine senza che si perdano prestazioni
Si, anche perché in cb2077 la perdita di dettaglio nei riflessi è troppo marcata, vediamo come sarà dopo l’aggiornamento al 3.5.
Comunque penso che dopo il rilascio del dlss 3.5, unificheranno la nomenclatura, facendo distinzione solamente per la presenza del frame gen, perché attualmente è un casino, ci son due dlss3, uno con FG e l'altro senza :)
 
Ultima modifica:
come ho detto sopra in 2 parole sostituiscono una suite di 3 software con una tecnica che a detta loro è più accurata ed efficiente

Mi fa piacere in quanto non si pensa all'aumento delle performance ma a migliorare la qualità dell'imamgine senza che si perdano prestazioni
E soprattutto anche perché per una volta sembra una politica pro consumatore (ci credo poco essendo Nvidia, ma tant'è) visto che sarà disponibile per tutte le rtx
 
Tralasciando l'assurdità di avere una serie 3000 con dlss 3.5 ma senza dlss 3.0, sembra strano anche a me che nvidia si metta a regalare tecnologie così importanti alle serie precedenti invece di farci leva per spingere a comprare le 4000 (come col frame generation).
Quindi o non è questa gran cosa, o nividia ha cambiato politica, o l'implementazione sulle 4000 sarà in qualche modo migliore (?). Vedremo.
 
Tralasciando l'assurdità di avere una serie 3000 con dlss 3.5 ma senza dlss 3.0, sembra strano anche a me che nvidia si metta a regalare tecnologie così importanti alle serie precedenti invece di farci leva per spingere a comprare le 4000 (come col frame generation).
Quindi o non è questa gran cosa, o nividia ha cambiato politica, o l'implementazione sulle 4000 sarà in qualche modo migliore (?). Vedremo.
Ma nVidia non è che lo fa di proposito, le serie 3000 potrebbero anche avere il frame gen, ma la latenza sarebbe mostruosa e gli artefatti anche, in pratica è ciò che sta cercando di fare l'incompetente AMD, ci riuscirà con RDNA3 ad implementare FSR3?
Mah, ho i miei dubbi, in quanto metterebbero in campo un abominio, peggio dell'interpolazione presente sui TV.
Invece penso che sia un gran cosa, ci sono già dei confronti, e la qualità dell'immagine migliora nettamente, sto seguendo in live la Gamescon, a breve faranno vedere il dlss 3.5 in azione ;)
 
Tralasciando l'assurdità di avere una serie 3000 con dlss 3.5 ma senza dlss 3.0, sembra strano anche a me che nvidia si metta a regalare tecnologie così importanti alle serie precedenti invece di farci leva per spingere a comprare le 4000 (come col frame generation).
Quindi o non è questa gran cosa, o nividia ha cambiato politica, o l'implementazione sulle 4000 sarà in qualche modo migliore (?). Vedremo.

Swecondo nvidia non hanno potuto rendere compatibile il DLSS 3 su schede precedenti per un problema hardware legato all'OFA

Ossia il chip hardware che si occupa degli algoritmi di moto e vettoriali degli oggetti in una rappresentazione digitale

Stando alle dichiarazioni di Nvidia questi algoritmi hanno bisogno di fasi di pre e post produzione per migliorare la qualità dei vettori di flusso che "occupano" l'OFA presente in Turing ed Ampere

In ADA il chip dedicato è più complesso e contiene una unità di elaborazione dedicata per questo tipo di algoritmi, inoltre sono state fatte molte ottimizzazione per alleggerire il carico tra hardware e driver

Tutte queste migliorie hanno fatto in modo che l'OFA di ADA restituisce prestazioni doppie rispetto a Turing e Ampere.

Il DLSS 3,0 molto probabilmente è possibile anche implementarlo su schede precedenti, ma con tutta probabilità darebbe prestazioni molto scadenti a causa dell'occupazione del chip da parte di questi algoritmi
 
Secondo me i prodigeek l'hanno spiegato abbastanza bene per chi non mastica nello specifico come me.
Non é così semplice come dici tu, ci sono i tensor core a fare sto lavoro, e le Radeon non li hanno. Se amd non presenta sto benedetto fsr3 (e che sia rivoluzionario) rimangono indietro anni luce a mio parere
Parli del FSR3 che non si vede da oltre un anno ?
 
Parli del FSR3 che non si vede da oltre un anno ?
Esatto, e mi viene da ridere, gente che compra schede da 1000 e più euro con la promessa che avranno qualcosa di rivoluzionario ma intanto c'è solo fsr2.0 ... mi spiace, nonostante nvidia mi faccia venire l'orticaria, almeno prima di vendere le 4000 aveva già pronto il dlss3. Come è giusto che sia. Poi che lo facciano strapagare è un altro discorso.
 
Ragazzi scusate la domanda da ignorante ma ho questo dubbio. Attualmente ho una 3060 e tra qualche mese vorrei passare a una 4070 ti o 4080 con nuovo monitor 2k. La 3060 richiede alimentazione a 8 pin mentre ho visto che la 4080 richiede 1 x 12 pin. Ho visto anche che con le schede arrivano degli adattatori per l'alimentatore. Come funziona con i cavi di alimentazione? Posso comprarlo a parte il cavo da 12 pin? Purtroppo non penso di riuscire a recuperare la scatola dell'alimentatore, li probabilmente c'erano altri cavi.
 
Ragazzi scusate la domanda da ignorante ma ho questo dubbio. Attualmente ho una 3060 e tra qualche mese vorrei passare a una 4070 ti o 4080 con nuovo monitor 2k. La 3060 richiede alimentazione a 8 pin mentre ho visto che la 4080 richiede 1 x 12 pin. Ho visto anche che con le schede arrivano degli adattatori per l'alimentatore. Come funziona con i cavi di alimentazione? Posso comprarlo a parte il cavo da 12 pin? Purtroppo non penso di riuscire a recuperare la scatola dell'alimentatore, li probabilmente c'erano altri cavi.
Nella confezione della scheda dovrebbero fornire un adattatore da collegare ai cavi dell'alimentatore
 
Pubblicità
Pubblicità
Indietro
Top