UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
venduta a 2,5k€
Nel 2006 volevo comprarmi un Aprilia RS 125cc e nuova costava quanto questa gpu che ricordo non essere una titan, quindi è una Flag ship. Nel 2006 la flag ship costava 500 euro, 2,5K li spendevi per ben altro. Nel 2030 bisognerà fare un mutuo per comprarsi la flag ship :D
 
Nel 2006 volevo comprarmi un Aprilia RS 125cc e nuova costava quanto questa gpu che ricordo non essere una titan, quindi è una Flag ship. Nel 2006 la flag ship costava 500 euro, 2,5K li spendevi per ben altro. Nel 2030 bisognerà fare un mutuo per comprarsi la flag ship :D
si , pazzesco...
 
Comunque @Beex se vuoi approfondire guarda il video che ho messo al post 883 che spiega molto bene sia cosa fa il DLSS3.0, sia i possibili vantaggi e svantaggi della tecnologia.
Anche perchè, essendo un video, riesce a mostrare visivamente cosa succede e si capisce per esempio che tipo di artefatti possono essere introdotti.

Faccio un esempio postando uno screen tratto da quel video, per chi non ha tempo\voglia di aprirlo:

Screenshot (170).png

Nel frame generato dal DLSS3, si vedono degli artefatti intorno alle mani di spiderman, che è la zona del frame dove c'è più movimento.
Sono sicuramente visibili... Tuttavia è molto meglio rispetto al frame generato da Chronos, un interpolatore già presente sul mercato, che sfuoca parti dell'immagine (non solo vicino alle mani) e fa errori nel ricostruire la posizione delle dita.
Nonostante gli artefatti possano sembrare enormi, soprattutto nell'immagine a sinistra, se guardate il video vedrete che, anche rallentandolo al 50%, le due sequenze appaiono praticamente indistinguibili. Quindi gli artefattti sembrano molto peggio in un fermo immagine piuttosto che nella realtà, perchè nella realtà ogni frame rimane a schermo solo pochi ms e inoltre i frame generati dall'AI (con errori) sono intervallati a frame perfetti renderizzati dalla scheda grafica.

Quindi il problema degli artefatti sembrerebbe di poco conto, anche se andrà riverificato con prove più approfondite: magari ci sono situazioni particolari in cui il DLSS 3.0 fatica di più.

Invece le latenze, anch'esso un tema trattato nel video, preoccupano di più, perchè in effetti c'è un peggioramento attivando il DLSS3.0. Ed è questo più che altro che sconsiglierà il suo utilizzo in un contesto competitivo (dove il tempo di reazione è tutto), non tanto gli artefatti che a 240fps probabilmente saranno completamente invisibili.
Sarà importante capire esattamente quanto la latenza peggiora e che impatto ha sull'esperienza di gioco, perchè non è detto che alcuni ms di latenza in più diano fastidio.

Io sono curioso di vedere anche qualche prova in situazioni di basso framerate. Come si comporta la frame generation quando si parte da un framerate molto basso, tipo 30 o 40 fps?
Immagino un gioco single player, non particolarmente frenetico ma con tanto RT, quindi molto pesante, che anche su GPU di fascia alta gira a bassi fps, nonostante il DLSS Super resolution attivo. Attivo la framegeneration: il framerate passa, ad esempio, da 40 a 75, livello che garantisce una buona fluidità in un gioco non troppo rapido (poi ognuno ha i suoi gusti). Ma partendo da un framerate così basso (e quindi latenze piuttosto alte), la latenza aggiuntiva può creare problemi? E gli artefatti si notano di più, considerando che essendoci meno frame il moto relativo degli oggetti tra un frame e l'altro sarà superiore?

Sono domande a cui avremo risposte nei giorni successivi alla scadenza dell'embargo.
 
Ultima modifica:
Comunque @Beex se vuoi approfondire guarda il video che ho messo al post 883 che spiega molto bene sia cosa fa il DLSS3.0, sia i possibili vantaggi e svantaggi della tecnologia.
Anche perchè, essendo un video, riesce a mostrare anche visivamente cosa succede e si capisce per esempio che tipo di artefatti possono essere introdotti.

Faccio un esempio postando uno screen tratto da quel video, per chi nonb ha tempo\voglia di aprirlo:


Nel frame generato dal DLSS3, si vedono degli artefatti intorno alle mani di spiderman, che è la zona del frame dove c'è più movimento.
Sono sicuramente visibili... Tuttavia è molto meglio rispetto al frame generato da Chronos, un interpolatore già presente sul mercato, che sfuoca parti dell'immagine (non solo vicino alle mani) e fa errori nel ricostruire la posizione delle dita.
Nonostante gli artefatti possano sembrare enormi, soprattutto nell'immagine a sinistra, se guardate il video vedrete che, anche rallentandolo al 50%, le due sequenze appaiono praticamente indistinguibili. Quindi gli artefattti sembrano molto peggio in un feroa immagine piuttosto che nella realtà, perchè nella realtà ogni frame rimane a schermo solo pochi ms e inoltre i frame generati dall'AI (con errori) sono intervallati a frame perfetti renderizzati dalla scheda grafica.

Quindi il problema degli artefatti sembrerebbe di poco conto, anche se andrà riverificato con prove più approfondite: magari ci sono situazioni particolari in cui il DLSS 3.0 fatica di più.

Invece le latenze, anch'esso un tema trattato nel video, preoccupano di più, perchè in effetti c'è un peggioramento attivando il DLSS3.0. Ed è questo più che altro che sconsiglierà il suo utilizzo in un contesto competitivo (dove il tempo di reazione è tutto), non tanto gli artefatti che a 240fps probabilmente saranno completamente invisibili.
Sarà importante capire esattamente quanto la latenza peggiora e che impatto ha sull'esperienza di gioco, perchè non è detto che alcuni ms di latenza in più diano fastidio.

Io sono curioso di vedere anche qualche prova in situazioni di basso framerate. Come si comporta la frame generation quando si parte da un framerate molto basso, tipo 30 o 40 fps?
Immagino un gioco single player, non particolarmente frenetico ma con tanto RT, quindi molto pesante, che anche su GPU di fascia alta gira a bassi fps, nonostante il DLSS Super resolution attivo. Attivo la framegeneration: il framerate passa, ad esempio, da 40 a 75, livello che garantisce una buona fluidità in un gioco non troppo rapido (poi ognuno ha i suoi gusti). Ma partendo da un framerate così basso (e quindi latenze piuttosto alte), la latenza aggiuntiva può creare problemi? E gli artefatti si notano di più, considerando che essendoci meno frame il moto relativo degli oggetti tra un frame e l'altro sarà superiore?

Sono domande a cui avremo risposte nei giorni successivi alla scadenza dell'embargo.
Grazie
 
L'interpolazione è una tecnica presente da tempo, tuttavia io non sono molto convinto dell'utilità della cosa, se non per spingere al massimo effetti in RT che altrimenti non sarebbero possibili ma poi essendo una tecnica di interpolazione la resa finale è tutta da vedere

Ci sta molto marketing in questa scelta di nvidia e in questo DLSS 3.0
 
L'interpolazione è una tecnica presente da tempo, tuttavia io non sono molto convinto dell'utilità della cosa, se non per spingere al massimo effetti in RT che altrimenti non sarebbero possibili ma poi essendo una tecnica di interpolazione la resa finale è tutta da vedere

Ci sta molto marketing in questa scelta di nvidia e in questo DLSS 3.0

Se è per questo anche l'upscaling era una tecnica conosciuta prima che Nvidia sfornasse il DLSS. Il merito di Nvidia è stato quello di creare un upscaling molto efficace, almeno se guardiamo alla sua seconda iterazione (DLSS2) che regala un considerevole aumento di prestazioni con un piccolo impatto a livello di qualità.
Da sottolineare, per correttezza, che anche AMD alla fine ci è arrivata, perchè l'FSR 2.0 non ha una resa troppo lontana dal DLSS2.0.

La stessa cosa potrebbe essere per l'interpolazione: non è una tecnologia nuova, ma il fatto che Nvidia riesca a ricreare frame con pochi artefatti in qualche ms lo rende applicabile ai giochi.
L'interpolazione non è mai stata una opzione per i giochi semplicemente perchè le tecnologie tradizionali facevano troppi errori o erano troppo lente, o entrambe le cose: nel video si dice che Chronos, alle massime impostazioni di qualità usate nel test, per creare un frame ci mette 750ms, contro i 3 ms del DLSS3.0.
Certo, non essendo dei film, nei giochi bisogna conservare una buona reattività e questa è la sfida principale, ma al momento non mi sento di escludere che l'obbiettivo sia stato centrato, almeno in certe condizioni.
 
Se è per questo anche l'upscaling era una tecnica conosciuta prima che Nvidia sfornasse il DLSS. Il merito di Nvidia è stato quello di creare un upscaling molto efficace, almeno se guardiamo alla sua seconda iterazione (DLSS2) che regala un considerevole aumento di prestazioni con un piccolo impatto a livello di qualità.
Da sottolineare, per correttezza, che anche AMD alla fine ci è arrivata, perchè l'FSR 2.0 non ha una resa troppo lontana dal DLSS2.0.

La stessa cosa potrebbe essere per l'interpolazione: non è una tecnologia nuova, ma il fatto che Nvidia riesca a ricreare frame con pochi artefatti in qualche ms lo rende applicabile ai giochi.
L'interpolazione non è mai stata una opzione per i giochi semplicemente perchè le tecnologie tradizionali facevano troppi errori o erano troppo lente, o entrambe le cose: nel video si dice che Chronos, alle massime impostazioni di qualità usate nel test, per creare un frame ci mette 750ms, contro i 3 ms del DLSS3.0.
Certo, non essendo dei film, nei giochi bisogna conservare una buona reattività e questa è la sfida principale, ma al momento non mi sento di escludere che l'obbiettivo sia stato centrato, almeno in certe condizioni.


non metto in dubbio che la tecnologia sia sicuramente molto valida e impressionante, ma mi rendo conto anche che si tratta di un qualcosa che è contrario q quello che di solito ci si è abituati.

staremo a vedere
 
Potendoselo permettere (500€ sdoganato), questo è lo stato dell'arte prestazionalmente e artisticamente.

FeK38WNVEAISrvZ.jpg:medium


p.s: sempre meglio dei 250€ per il WB di EK, per non parlare dei 400€ per il backplate passivo senza nulla da dissipare sul retro della scheda.
 
+35% di prestazioni per la 4080 16GB sulla rtx 3090 con 30w in meno (che all'atto pratico corrispondo agli 8 moduli di GDDR6x mancanti). Efficienza 👍
 
Ultima modifica:
Ah se lo dici tu mi fido. Non pensavo che nelle GPU si calcolasse in altro modo la differenza matematica.
 
sono ancora molto indeciso se fare il salto, mi sto convincendo che converrà aspettare l'uscita delle ti/super quando nvidia apporterà un taglio di prezzo viosto che ne venderanno molte di meno
 
Pubblicità
Pubblicità
Indietro
Top