UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Il problema del 4k ad alto refresh è che anche potendo (e non sarei sicuro che la 3090 ci arrivi, magari in modalità performance ma allora non lo chiamerei 4k) purtroppo i monitor costano davvero troppo.

E comunque il dlss aumenta i tempi di risposta tra i comandi e le azioni sullo schermo (come hanno detto poco fa) quindi usarlo ad esempio nei giochi competitivi per avere un alto refresh rate è un po' un controsenso.
 
Il problema del 4k ad alto refresh è che anche potendo (e non sarei sicuro che la 3090 ci arrivi, magari in modalità performance ma allora non lo chiamerei 4k) purtroppo i monitor costano davvero troppo.

E comunque il dlss aumenta i tempi di risposta tra i comandi e le azioni sullo schermo (come hanno detto poco fa) quindi usarlo ad esempio nei giochi competitivi per avere un alto refresh rate è un po' un controsenso.
Se un‘immaggine è già ben definita di suo, il DLSS può poco o nulla.

Se Nvidia avesse detto:
“Cari clienti, siccome l’abilitazione del RT porterà a un calo notevole di fps, dovrete abilitare il DLSS che compenserà la situazione, facendo un render dell’immagine a risoluzione inferiore con conseguente upscaling“, nessuno avrebbe detto nulla.
 
Però, non per fare il pignolo, ma se per accorgermi di un effetto "devo sapere dove guardare", forse allora non è questa gran cosa come effetto ?

Beh non qualsiasi effetto devi capire come è implementato in un gioco e dove guardare da quando esistr la grafica. In un gioco dove gli effetti in RT siono relefgati alle ombrte non puoi mica guardare le texture ovviamente sono ugugli

Ma in generale è così per qualsisi tipo di efetto grafico TAA fa un qualcosa di motlo specifico, così vale per effetti come hbao e chi più ne ha piu`ne metta.

Di certo se un effetto come il RT è relegato alle ombre o ai riflessi sarannio quelli ad essere diversi altrimenti saremmo già nell'epoca del path tracing
 
Il DLSS su CP2077 è obbligatorio anche senza RT perché quel gioco è un mattone per qualsiasi scheda, quindi col DLSS, la scheda renderizza a risoluzione inferiore.

“Dato che molto spesso è la risoluzione elevata ad avere il maggior impatto sulle prestazioni in gioco, il DLSS crea le immagini che compongono la scena a schermo a una risoluzione più bassa di quella impostata, dopodiché le trasforma a risoluzione più alta solo alla fine del processo. Il meccanismo funziona grazie all’allenamento a cui è stata sottoposta l’intelligenza artificiale alla base del DLSS, che l’ha resa in grado di riconoscere gli oggetti che compongono la scena, in modo da poter ricostruire al meglio i dettagli delle immagini che altrimenti andrebbero persi durante il processo.“

Questo è un pezzo di articolo preso da Tom’s Hardware Italia, del 25 giugno 2021.

Sarebbe come prendere un film DVD tradizionale e fare un upscaling in 4K. Non avrà mai la stessa qualità di un 4K nativo.
in reraltà non`e cosi il DLSS 2.0 su 4k è milgiorativo proprio per questo è rivoluzionario.

ci sono centuinaia di video in rete che lo dimostrano ecco un esempio

1625523643341.webp
 
Il problema del 4k ad alto refresh è che anche potendo (e non sarei sicuro che la 3090 ci arrivi, magari in modalità performance ma allora non lo chiamerei 4k) purtroppo i monitor costano davvero troppo.

E comunque il dlss aumenta i tempi di risposta tra i comandi e le azioni sullo schermo (come hanno detto poco fa) quindi usarlo ad esempio nei giochi competitivi per avere un alto refresh rate è un po' un controsenso.
Aspetta.. quindi se uso il DLSS su warzone avrò dei tempi di risposta maggiori ?

2k 144hz, 3070ti, ryzen 5 3600, 32gb 3600mhz ram
 
Aspetta.. quindi se uso il DLSS su warzone avrò dei tempi di risposta maggiori ?

2k 144hz, 3070ti, ryzen 5 3600, 32gb 3600mhz ram
con reflex li accorci parliamo davvero del nulla, parliamo di differenza max 0.5 ~ 1 ms `non ha alcun senso prender ein considerazione un qualcosa del genere
1625525077038.png

il vsinc ha molto p[iù input lag


 
Ultima modifica:
Aspetta.. quindi se uso il DLSS su warzone avrò dei tempi di risposta maggiori ?

2k 144hz, 3070ti, ryzen 5 3600, 32gb 3600mhz ram
Esattamente, ogni fotogramma dopo essere stato generato deve essere processato dal DLSS che richiede un certo tempo e solo poi ti viene mostrato.

A volte a me bastano anche 20-30ms in più di ping per accorgermi che il gioco non è così "pronto" come vorrei. Ma come detto, non so di quanto aumenta l'imput lag col dlss... Magari è molto poco però di certo non è zero il tempo per elaborare i fotogrammi.

Sarebbe bello vedere dei confronti ma mi sa che non li ha fatti nessuno...

EDIT: ho visto ora il grafico di crime, sembrerebbe trascurabile il dlss, ma se posso chiedere da dove viene quel grafico ?

Comunque cercando l'input lag, per caso ho trovato altri motivi più gravi per non usare il dlss in warzone ?
Questi sono i problemi di algoritmi così complessi purtroppo...

Chissà quanti hanno giocato col dlss, giocando male e mancando un sacco di colpi senza sapere perché! ? ? ...???


Una cosa del genere in teoria è impossibile che accada con FSR di amd perché migliora l'immagine evidenziandone i dettagli ma senza alterarli. Il DLSS invece può ricostruire, aggiungere e spostare i dettagli dell'immagine essendo più potente, ma a quanto pare a volte può sbagliare clamorosamente dove invece servirebbe precisione assoluta...
 
Ultima modifica:
Qui state davvero dimostrando di avere le idee molto confuse sul RT e DLSS ?

nelle ultime due pagine ho letto tali e tante inesattezze sul DLSS che risulta impossibile rispondere punto per punto.
centinaia di ore di elaborazione ? Io direi che non vi è chiara la differenza tra DLSS 1.0 ed il 2.0, che è sul mercato da oltre un anno.
ci vuole letteralmente UN GIORNO per implementarlo su un engine grazie ai nuovi tool di Nvidia ed al fatto che adesso non deve essere più “istruito per ogni scena”.


Usare Warzone, uno degli engine peggio riusciti dell’ultimo decennio, come metodo per dimostrarlo poi inizia davvero a farmi ridere… a prescindere dal fatto che in uno shooter competitivo ritengo abbastanza assurdo abilitare il DLSS quando c’è gente che non fa altro che mettere i dettagli al minimo, è chiaro che non si tratti di una cosa consigliabile.

per i discorsi sulla qualità poi fatti con video YouTube compressi… ?

Al di la del fatto che dovreste giudicare di persona, e metà di quelli che ne stanno parlando male qui non possono avendo una Radeon (e l’altra metà la RTX ancora la sta aspettando…), di articoli fatti benino sul DLSS in rete ce ne sono svariati.


qui dentro da parte vostra ho letto molte opinioni basate su assunti sbagliati o vecchi (principalmente relativi al DLSS 1.0).
Attendo con impazienza di vedere un reale confronto tra FSR e DLSS quando ci sarà un gioco che permetterà di abilitare entrambe le opzioni, potendo fare una vera comparazione frame per frame, lasciando nel frattempo ad FSR il tempo di maturare un po’ (anche se ricordiamoci che non si tratta di nulla di realmente nuovo visto che è basato su un algoritmo che AMD sperimenta da tempo).
al momento mi sembra che FSR sia il benvenuto permettendo un aumento di frame rate, al costo di un sopportabile calo di qualità, praticamente su ogni gioco.
ma anche qui il vantaggio di Nvidia rimane : in pratica i possessori di una RTX avranno la possibilità di scegliere se usare il DLSS, ove supportato, oppure FSR, dove il DLSS non c’è. È un win-win.

sulla quantità di silicio “sprecato” dai tensor core, beh al limite può essere un problema di Nvidia non certo dell’utente finale ?
non mi pare che le Radeon che sono prive di quell’hardware siano significativamente meno costose…
se il FSR dovesse migliorare al punto da rendere irrilevanti i vantaggi del DLSS sono sicuro che Nvidia, che è l’azienda più tirchia del pianeta, nelle generazioni future toglierà i TC, ma non vedo come questo possa rendere felici i clienti, visto che tanto il risparmio loro non si trasmetterà sul prezzo ?
 
A me, da l’idea (è solo una supposizione eh), che non si voglia ammettere che il DLSS per garantire (in alcuni casi) fino al doppio degli fps, esegua il rendering a risoluzioni più basse (alleggerendo la scheda) e di conseguenza (ovvia) ne derivi un aumento degli stessi.

E non dite sempre che c’è confusione, perché è una cosa normale che abbassando la risoluzione di rendering, il carico sulla scheda sia più leggero e quindi sforni più fps e di qualità, perché nonostante tutta la scienza di questo mondo, impostando

DLSS Off = quindi niente IA e lasciare renderizzare la scheda a risoluzione nativa,

tutti ne conosciamo i limiti.

Per migliorare l’esperienza di gioco e rendere le immagini fluide con RT On e RT Off, fanno lavorare la scheda in quel modo. Stop.

Bisogna esporre anche i lati negativi. Su questo mondo, ogni cosa (non solo un determinato settore) ha dei lati positi e dei lati negativi.

Come detto da un utente prima di me, con i giochi basta poco per divertirsi.

Però se una persona (in generale eh) mi viene a dire che in 4K la sua scheda tiene 60 fps fissi e con DLSS ne tiene 90 fissi, io gli ripeterò sempre che con i 90 fps non sta giocando a risoluzione nativa 4K.

Ma avete letto il pezzo di articolo di Tom’s Hardware Italia che ho riportato ieri? Una 3060 che gira in maniera fluida in 4K con il DLSS. Allora chi si compra una 3080 dovrebbe essere uno senza cervello che butta via i soldi? Io due domande sul come sia possibile arrivare a questo risultato me le farei.
 
A me, da l’idea (è solo una supposizione eh), che non si voglia ammettere che il DLSS per garantire (in alcuni casi) fino al doppio degli fps, esegua il rendering a risoluzioni più basse (alleggerendo la scheda) e di conseguenza (ovvia) ne derivi un aumento degli stessi.
Ma è quello che fa....la rivoluzioen del DLSS e proprio cyhe si tratta di unos caling che non`e peggiortaivo ossia non vi è una perdita di qualità visiva nemmeno a 400x


DLSS Off = quindi niente IA e lasciare renderizzare la scheda a risoluzione nativa,

E perchè mai uno dovrebbe farlo, esiste una tecnologia che non solo ti assicura di avere un frame molto piu`alto ma NON c'`e una perdita di qualità apprezzabile, singifica che ti vuoi fare male da solo



er migliorare l’esperienza di gioco e rendere le immagini fluide con RT On e RT Off, fanno lavorare la scheda in quel modo. Stop.

Mmm no RT e dlss sono due cose diverse forse non hai ben chiaro questo fatto il Ray tracing è uan cosa il DLSS è un altra possono essere implementate e attivate in maniera totalmetne autonoma


Bisogna esporre anche i lati negativi. Su questo mondo, ogni cosa (non solo un determinato settore) ha dei lati positi e dei lati negativi.
quali sarebberio i lati negativi?

Però se una persona (in generale eh) mi viene a dire che in 4K la sua scheda tiene 60 fps fissi e con DLSS ne tiene 90 fissi, io gli ripeterò sempre che con i 90 fps non sta giocando a risoluzione nativa 4K.
e che cosa importa a uqnto yti lavosra la scheda in 4k le immagini con il DLSS sono addirittura milgiorative se vuoi ti facico uno screen sul mio pc
Ma basta gaurdare questo video

 
Ultima modifica:
che il DLSS consista in un rendering a risoluzione più bassa non è qualcosa da ammettere o meno: è un dato di fatto.
Che non faccia un semplice upscaling + sharpening, come fa FSR, è un altro dato di fatto.

Partendo da questo assunto, il 90% del resto che avete scritto è basato su percezioni errate e derivate soprattutto da "analisi YouTube" ed informazioni vecchie su DLSS 1.0 che era piuttosto scarso.
 
Questo è uno screen fatto adesso sul mio pc

DLSS off/on su metro exodus enchanced

1625556933177.webp


L'immagine di destra è con il DLSS quella di sinistra senza

Quale è la più definita?


Qui parliamo di risoluzioen 1440p
 
fermo restando che poi ciascuno può decidere per se stesso se preferisce usarlo o meno, sia chiaro ?‍♂️

io il fantastico Control ho iniziato a giocarlo con RT senza DLSS, ma poi mi sono accorto che era più appagante attivandolo.
 
Ero convinto di no per via del driver overhead che è presente anche nelle RTX. Pensavo fosse quello a causarlo, errore mio.
Mi scuso con @StrixyRoG, pare che il suo non fosse un autogoal allora ?

La situazione comunque non cambia perché (anche se non dovuto allo scheduler allora) il problema dell'overhead esiste anche sulle RTX.

Ecco un esempio che avevo visto:
(Ci sono molti altri confronti in questo video.)

In alcuni casi, una RTX3090 produce paradossalmente meno fps di una 5600xt perché aggrava notevolmente il bottleneck della cpu.
Ma accadrebbe anche con una RTX2060 o qualsiasi altra scheda nvidia (credo esistano esempi simili anche con una 1660ti).

Per adesso il problema sembra presentarsi con processori fino al 2600 però in futuro, con la maggiore ed ormai certa parallelizzazione dei giochi che sfrutterà sempre di più le cpu, credo potrebbe estendersi anche alle cpu successive dal 3600 in avanti.
Dopo tutto warzone, per esempio, se non erro arriva già a picchi del 70-80% su un 5600x quindi, sebbene presente, non resta troppo margine di sicurezza prima di arrivare al bottleneck (sebbene quei picchi di utilizzo siano molto brevi). Forse un 3600 sarebbe già a rischio in quel titoli ?

Ma figurati, mica devi scusarti, si discute e ci si confronta, in base soprattutto alle proprie esperienze personali. Poi ognuno sceglie ciò che più gli piace e con cui si trova meglio.
 
Pubblicità
Pubblicità
Indietro
Top