UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
Il DLSS è un buon modo per godere del RT senza avere una perdita di prestazioni irritante.
È quello che dico da questa mattina, per godere del RT, ti serve attivare il DLSS (che fa quelle cose dette prima), perché altrimenti viste le prestazioni con DLSS OFF, nessuno avrebbe acquistato una RTX.

Mi dai l’annuncio super mega figo di questa nuova tecnologia del RT e poi devi fare il DLSS per rimediare al grande drop di fps? (Parlo di Nvidia eh, non è riferito a te)

Come avrai letto, pure io ho acquistato una RTX (e pure io non faccio distinzione tra i marchi), però, per me, il DLSS resta una presa in giro verso i clienti.

Quando sforneranno (AMD o Nvidia) una scheda in grado di avere prestazioni decenti in RT, senza dover fare render + upscaling, andrò a stringere la mano a tutti i dipendenti.

Detto questo, io la chiudo qui. ?

P.S.
Devo ammettere che almeno, Nvidia ha rimediato al RT col DLSS. AMD, invece, una ciofeca totale, in RT.
 
si ma chi monta una 3090 su un Ryzen 2600X ? ?
Nessuno di sano ? ma quello è il caso "meno peggio".

Già la 3070 è leggermente inferiore negli fps prodotti come si vede dal grafico. Una 3060 avrebbe risultati ancora peggiori.
In un altro video parlavano del passaggio da rx480 a 1660super con perdita di fps in alcuni titoli sempre per questo motivo.

La 3090 è il caso migliore (come performance) che possa capitare, tutte le schede inferiori (e giustamente più proporzionate ad un processore come il 2600) avrebbero risultati peggiori.

Titolo sponsorizzatissimo da Nvidia.
E' come dire che le schede o i processori amd vanno meglio su God Fall.

Utile per vedere il potenziale massimo di ray tracing e dlss (molto ben riusciti infatti pare), ma dubito ci saranno gli stessi investimenti ed attenzioni che si sono viste da parte di Nvidia su Control anche negli altri titoli.
Sicuramente non si sono visti sino ad ora.

Quindi imho lascia un po' il tempo che trova... ?
 
Titolo sponsorizzatissimo da Nvidia.
E' come dire che le schede o i processori amd vanno meglio su God Fall.

Utile per vedere il potenziale massimo di ray tracing e dlss (molto ben riusciti infatti pare), ma dubito ci saranno gli stessi investimenti ed attenzioni che si sono viste da parte di Nvidia su Control anche negli altri titoli.
Sicuramente non si sono visti sino ad ora.

Quindi imho lascia un po' il tempo che trova... ?
Esattamente.

In alcuni giochi, il RT attivo o no, cambia poco o nulla. Praticamente seguendo Nvidia dovremmo tutti giocare a Control e God Fall per AMD.

Andrà sempre meglio, indubbiamente. Ma ancora non ci siamo.

Si critica AMD, però guardando bene, Nvidia con RT senza DLSS, arranca come il pandino di nonno in inverno. Quindi siamo lì. ?
 
questo video parla da sdolo


Il DLSS 1.0 aveva limiti ben maggiori dal FSR 1.0... Io sono fiducioso che possa migliorare molto anche quest'ultimo rapidamente.

NERssuno mette in dubbio che le tecnologie milgiorano e si evolvono ma al livello di potenziale il DLSS ne ha molto di più del FSR è uan semplcie questioen fisica impossibile da superare.

Il DLSS si basa su una IA che può (ed è stato dimostrato" generare le informazioni mancanti, è una cosa che l'FSR non potrtà mai fare, a meno che in futuro non adottano un approccio simile"

Ti spiego se io rpendio un volto gli tolgo naso occhi e bocca la tecnologia DLSS mi sostituirà gli elementi mancanti cioè aggiungerà occhi naso e bocca perchè l'IA riconosce che quel tipo di oggetto è una faccia

Il modo in cui lo fa portà evolversio o essere più o nmeno integarto a seconda della completssità dell'algoritmo, ma uno scaling questo non lo potrà mai fare

La tecnologia del DLSS si basa proprio sulla ricreazione delle info mancanti e il modo in cui vengono poi integrate nell'immagine

Inoltre i tensor core vengono usati già per altre cose, il DLSS è solo un atecnologia che può ssere o non pùo essere utilizzata, ma i tendsor core sono veri e proprui ciore che utilizzano una matrice matematica motlo complessa

Green screen? non ti serve ppiù
Riduzione del rumore al livello davvero efficiace le schede ci riescono

Hai mai provato a eleimare il rumore di un trapano mentere fai streaming? Sono cose di contorno ma che questo tipo di tecnologia basata sull'hArdware può offrire

RT e DLSS sono tecnologie che possono o non possono piacere e possono non evnmire utilizzate dall'utenza, ma in questo cambpo nvidia sta avanti , e di un bel po`

Poi possiamo chiederci quanto ti piace che è molto soggettivo ma che nell'uso di queste tecnolgie AMD sta rincorrendo è palese


Titolo sponsorizzatissimo da Nvidia.
E' come dire che le schede o i processori amd vanno meglio su God Fall.

Utile per vedere il potenziale massimo di ray tracing e dlss (molto ben riusciti infatti pare), ma dubito ci saranno gli stessi investimenti ed attenzioni che si sono viste da parte di Nvidia su Control anche negli altri titoli.
Sicuramente non si sono visti sino ad ora.
E'vero che control è un titolo fatto inizialmente per nvidia, ma nel momento in cui AMD entra nel settore RT ci deve fare i conti

tutti i titoli in RT sono sttai "fatti"per Nvidia questo non significa molto pure Death stranding è atato fatto per copnsole, ma l'implementazione del DLSS è stata a dir poco perfetta, quidni sencondo questo ragionamento potremmo dire che tutti i titoli in RTX sonos tati fatit da nvidia on vale il fatto che AMD sia oggettivamente indietro,

PEr me non`e cosi AMD sul RT è oggettivamente indietro perchè in tutti i titoli in RTX le schede sopffrono, poi uno può anche sbattersene del RT ma anche no
 
Ultima modifica:
Nessuno di sano ? ma quello è il caso "meno peggio".

Già la 3070 è leggermente inferiore negli fps prodotti come si vede dal grafico. Una 3060 avrebbe risultati ancora peggiori.
In un altro video parlavano del passaggio da rx480 a 1660super con perdita di fps in alcuni titoli sempre per questo motivo.

La 3090 è il caso migliore (come performance) che possa capitare, tutte le schede inferiori (e giustamente più proporzionate ad un processore come il 2600) avrebbero risultati peggiori.


Titolo sponsorizzatissimo da Nvidia.
E' come dire che le schede o i processori amd vanno meglio su God Fall.

Utile per vedere il potenziale massimo di ray tracing e dlss (molto ben riusciti infatti pare), ma dubito ci saranno gli stessi investimenti ed attenzioni che si sono viste da parte di Nvidia su Control anche negli altri titoli.
Sicuramente non si sono visti sino ad ora.

Quindi imho lascia un po' il tempo che trova... ?
Ma che discorsi sono ? Anche Cyberpunk è pesantemente sponsorizzato ? DLSS + RT funzionano alla grande pure li.

Io francamente non capisco perché non ammettiate semplicemente che sul RT AMD è indietro due anni rispetto ad Nvidia …

Sono convinto che con la prossima generazione ci saranno cambiamenti architetturali.

Esattamente.

In alcuni giochi, il RT attivo o no, cambia poco o nulla. Praticamente seguendo Nvidia dovremmo tutti giocare a Control e God Fall per AMD.

Andrà sempre meglio, indubbiamente. Ma ancora non ci siamo.

Si critica AMD, però guardando bene, Nvidia con RT senza DLSS, arranca come il pandino di nonno in inverno. Quindi siamo lì. ?
Stai dicendo un sacco di inesattezze.
Control ad esempio su una 3080 è giocabile anche senza DLSS…
 
questo video parla da sdolo




NERssuno mette in dubbio che le tecnologie milgiorano e si evolvono ma al livello di potenziale il DLSS ne ha molto di più del FSR è uan semplcie questioen fisica impossibile da superare.

Il DLSS si basa su una IA che può (ed è stato dimostrato" generare le informazioni mancanti, è una cosa che l'FSR non potrtà mai fare, a meno che in futuro non adottano un approccio simile"

Ti spiego se io rpendio un volto gli tolgo naso occhi e bocca la tecnologia DLSS mi sostituirà gli elementi mancanti cioè aggiungerà occhi naso e bocca perchè l'IA riconosce che quel tipo di oggetto è una faccia

Il modo in cui lo fa portà evolversio o essere più o nmeno integarto a seconda della completssità dell'algoritmo, ma uno scaling questo non lo potrà mai fare

La tecnologia del DLSS si basa proprio sulla ricreazione delle info mancanti e il modo in cui vengono poi integrate nell'immagine

Inoltre i tensor core vengono usati già per altre cose, il DLSS è solo un atecnologia che può ssere o non pùo essere utilizzata, ma i tendsor core sono veri e proprui ciore che utilizzano una matrice matematica motlo complessa

Green screen? non ti serve ppiù
Riduzione del rumore al livello davvero efficiace le schede ci riescono

Hai mai provato a eleimare il rumore di un trapano mentere fai streaming? Sono cose di contorno ma che questo tipo di tecnologia basata sull'hArdware può offrire

RT e DLSS sono tecnologie che possono o non possono piacere e possono non evnmire utilizzate dall'utenza, ma in questo cambpo nvidia sta avanti , e di un bel po`

Poi possiamo chiederci quanto ti piace che è molto soggettivo ma che nell'uso di queste tecnolgie AMD sta rincorrendo è palese



E'vero che control è un titolo fatto inizialmente per nvidia, ma nel momento in cui AMD entra nel settore RT ci deve fare i conti

tutti i titoli in RT sono sttai "fatti"per Nvidia questo non significa molto pure Death stranding è atato fatto per copnsole, ma l'implementazione del DLSS è stata a dir poco perfetta, quidni sencondo questo ragionamento potremmo dire che tutti i titoli in RTX sonos tati fatit da nvidia on vale il fatto che AMD sia oggettivamente indietro,

PEr me non`e cosi AMD sul RT è oggettivamente indietro perchè in tutti i titoli in RTX le schede sopffrono, poi uno può anche sbattersene del RT ma anche no


Hai ragione e ti seguo in tutto sul fatto che il dlss è più avanzato proprio a livello kntrinseco, dico solo che non è gratis e che "costa" quasi 1/4 dello spazio sul die (che è quello occupato dai tensor core).

Sono d'accordo che i tensor core permettono di fare un sacco di altre cose, ma per il Gaming sono inutili. (non so neanche se hanno un ruolo nella rasterizzazione ?).

Quindi alla fine sacrifichi performance (togliendo spazio ai core "da gaming") per creare un complicato algoritmo AI per aumentare le performance. Ha poco senso secondo me.

Ha senso solo nell ottica di vendere questi prodotti sul mercato Gaming cercando legittimamente di dare un senso anche alle parti che con il Gaming c'entrano poco o niente.

Ma che discorsi sono ? Anche Cyberpunk è pesantemente sponsorizzato ? DLSS + RT funzionano alla grande pure li.

Io francamente non capisco perché non ammettiate semplicemente che sul RT AMD è indietro due anni rispetto ad Nvidia …

Sono convinto che con la prossima generazione ci saranno cambiamenti architetturali.


Stai dicendo un sacco di inesattezze.
Control ad esempio su una 3080 è giocabile anche senza DLSS…

Magari sono male informato ma sapevo che anche su cyberpunk il dlss introduceva artefatti che in partenza non esistevano. Ma non ciò ho mai giocato quindi magari sbaglio.

Comunque non ho nessun problema a dire che nvidia è avanti sul ray tracing, è vero.

Ho qualche problema a dire che il dlss sia la soluzioni migliore e più lineare per il Gaming.

Anche perché, altra cosa negativa rispetto ad FSR, il DLSS aumenta la latenza di sistema per il tempo necessario a processare l immagine (cosa invece istantanea su FSR).
 
Esattamente.

In alcuni giochi, il RT attivo o no, cambia poco o nulla. Praticamente seguendo Nvidia dovremmo tutti giocare a Control e God Fall per AMD.

Andrà sempre meglio, indubbiamente. Ma ancora non ci siamo.

Si critica AMD, però guardando bene, Nvidia con RT senza DLSS, arranca come il pandino di nonno in inverno. Quindi siamo lì. ?
probabilmente nons ai dove guardare ti faccio un esempio

Anche il marketing è indubbiamente colpevole di dare un approccio "generale" alla aprola RTX non specificando poi la sua reale appklicazione in questo modo l'utente meno espertto crede che ci sia un milgiroamento generale, mentre magari l'effetto in se è relegato solo a particolari elementi come le ombre


Ecco un esempio

1625509437151.png

Ad un priomo impatto le immagini sembrano motlo simili, ma una è in RT e l'altra no cosa cambia?

In SOTR non cambia l'immagine intera, ma solo le ombre perchè il RT è applicato li vedi adesso qualche differenza?

Nella prima immagine abbiamo ombre nette, nella seconda invexce sono motlo più sfumate, il RT introduce il concetto di "penombra" cosa molto molto difficile da ricreare ed è quello che succede nella realtà

Un ombra nella realtà non`e uniforma ma diventa più sfumata man mano che ci si allontana a te magari sembrerà poca roba ma fare un render in raster delle ombre è molto molto difficile

Il RT risolve questo problmea coem puoi ben vebdere e si vede dalle immagini le ombre non sono più uniformi, ma l'intensità cambia ogni centimentro, le foglie più in alto hanno un profilo molto più indistinto, mentre il corpo dibenta più sfumanto man mano che che l'omra sale.

A motlo sembrerà poca cosa ma non è così nessun effetto in passato ha portato mai una differenza così evidente nella trasp[osizione delle ombre, anche effetti motlo pubblicizzati

Quidni dire che il RT"non fa"secondo me ``e motlo sbalgiato da dire, ci sono certamentw alcuni giochi in cui l'applicazioen è molto leggera per via di una pesantezza del gioco in se (warzone)?

Ma il RT dove applicato fa la differenza
 
Ultima modifica:
Siccome sono da telefono, mi si scaricherebbe la batteria a scrivere poemi, cerco di essere il più sintetico possibile.

Io non sono confuso su cosa sia il RT e su cosa il DLSS. Il fatto è che se la scheda andasse bene in RT non avrei nulla da dire. Invece il RT richiede parecchie risorse ed è giusto il calo di fps. Per sopperire al calo di fps dati dal RT hanno creato il DLSS.

Il DLSS è una porcheria che ha sviluppato Nvidia (azienda che stimo parecchio) che per me non ha senso. Renderizza l’immagine a una qualità inferiore per poi spararla a risoluzione scelta durante ”l’ultimo step”.

Se io col mio 3400G, su Fortnite (con DirectX 11) imposto (cosa che ho già provato) la risoluzione a 1440p e rendering al 50%, la Vega 11 mi scarica 70/80 fps, però non vado in giro a dire che gioco in 1440p, perché gioco con una risoluzione fake porcheria.

Se avessi voluto giocare a 1080p, avrei preso un monitor 1080p 120hz e una 3060 Ti e avrei risparmiato soldi senza bisogno di attivare il DLSS per un fake 1440p.

Sono punti di vista (in questo caso, il mio), però, ripeto, io preferisco giocare a risoluzione nativa piuttosto che un fake.

Mi sa che hai l’idee un po’ confuse,di certo il DLSS non è nato per “aiutare i giochi in RTX” , mi interesso di grafica e di tanto in tanto produco modelli su fiverr, di fatto Nvidia non ha inventato nulla di nuovo il Ray tracing che tradotto significa tracciamento del raggio luminoso esiste in ambito grafico da più di 15 anni ed il DLSS è nato come una branca del machine learning ed il cloud computing sviluppato inizialmente per evitare lavori inutili sulla gpu, ad un certo punto si è considerato linutilita di renderizzare aree fuori dal campo visivo e da li il passaggio alla risoluzione ed alla separazione dello stesso dal contesto hardware...


Inviato da iPhone tramite App ufficiale di Tom\'s Hardware Italia Forum
 
probabilmente nons ai dove guardare ti faccio un esempio

Anche il marketing è indubbiamente colpevole di dare un approccio "generale" alla aprola RTX non specificando poi la sua reale appklicazione in questo modo l'utente meno espertto crede che ci sia un milgiroamento generale, mentre magari l'effetto in se è relegato solo a particolari elementi come le ombre


Ecco un esempio

Visualizza allegato 411534

Ad un priomo impatto le immagini sembrano motlo simili, ma una è in RT e l'altra no cosa cambia?

In SOTR non cambia l'immagine intera, ma solo le ombre perchè il RT è applicato li vedi adesso qualche differenza?

Nella prima immagine abbiamo ombre nette, nella seconda invexce sono motlo più sfumate, il RT introduce il concetto di "penombra" cosa molto molto difficile da ricreare ed è quello che succede nella realtà

Un ombra nella realtà non`e uniforma ma diventa più sfumata man mano che ci si allontana a te magari sembrerà poca roba ma fare un render in raster delle ombre è molto molto difficile

Il RT risolve questo problmea coem puoi ben vebdere e si vede dalle immagini le ombre non sono più uniformi, ma l'intensità cambia ogni centimentro, le foglie più in alto hanno un profilo molto più indistinto, mentre il corpo dibenta più sfumanto man mano che che l'omra sale.

A motlo sembrerà poca cosa ma non è così nessun effetto in passato ha portato mai una differenza così evidente nella trasp[osizione delle ombre, anche effetti motlo pubblicizzati

Quidni dire che il RT"non fa"secondo me ``e motlo sbalgiato da dire, ci sono certamentw alcuni giochi in cui l'applicazioen è molto leggera per via di una pesantezza del gioco in se (warzone)?

Ma il RT dove applicato fa la differenza

C’è stato un problema di comunicazione secondo me, si è fatto passare il RT come una rivoluzione alla pari dal passaggio da 2d al 3d , è un piccolo miglioramento che porta al foto realismo, che potrebbe anche essere ignorato d’altronde nel mondo dei videogiochi ci si diverte con tutto.

Ma fino ad oggi si è sempre fatto gli engine che calcolano la luce dal punto A al punto B , che succede se si va a calcolare il passaggio al punto C è D è così via? Succede che le zone in ombra cambiamo prospettiva i riflessi anche , da notare ampio uso di pozzanghera per risaltare i riflessi e rendere visibile RT


Inviato da iPhone tramite App ufficiale di Tom\'s Hardware Italia Forum
 
C’è stato un problema di comunicazione secondo me, si è fatto passare il RT come una rivoluzione alla pari dal passaggio da 2d al 3d , è un piccolo miglioramento che porta al foto realismo, che potrebbe anche essere ignorato d’altronde nel mondo dei videogiochi ci si diverte con tutto.
Ecco quello che volevo dire io. C’è stato un problema di comunicazione.

Quando, AMD o Nvidia riusciranno a tirare fuori una scheda che in RT senza l’aiuto di nient’altro, scarichi a risoluzione nativa 100/120 fps, allora dirò: “Hanno fatto un lavoro eccellente.”

Per me il DLSS resta una cosa inutile e tutta pubblicità. Il RT invece no.
 
Ecco quello che volevo dire io. C’è stato un problema di comunicazione.

Quando, AMD o Nvidia riusciranno a tirare fuori una scheda che in RT senza l’aiuto di nient’altro, scarichi a risoluzione nativa 100/120 fps, allora dirò: “Hanno fatto un lavoro eccellente.”

Per me il DLSS resta una cosa inutile e tutta pubblicità. Il RT invece no.
Ma cosa inutile, ragazzi ma l'avete mai provato il DLSS? Da come parlate no. Io ho da poco una rtx 3060, il dlss è una cosa pazzesca: su Control e Death Stranding quasi raddoppia gli fps e l'immagine migliora, è pazzesco. Cyberpunk la stessa cosa eh, per giocarlo ad un frame rate ottimo il dlss è obbligatorio, anche senza il ray tracing.
 
Anche Cyberpunk è pesantemente sponsorizzato ?
Per implementare il DLSS in cyberpunk ? Quasi sicuramente si, è sempre nvidia che si fa carico di tutti i costi per l'implementazione, spesso fornisce anche proprio gli sviluppatori "in prestito".

Non penso ci siano case che di loro spontanea volontà abbiano deciso di sobbarcarsi i costi per aggiungere il dlss ai loro titoli. Non è una cosa immediata, ci vogliono server farm che elaborano per centinaia di ore e chissà quante altre rifiniture (ed ancora ci sono problemi perché non è ancora perfetta anche se hanno migliorato la tecnologia). E' sempre nvidia che "paga tutto" perché tanto poi gli torna indietro come pubblicità.

C’è stato un problema di comunicazione secondo me, si è fatto passare il RT come una rivoluzione alla pari dal passaggio da 2d al 3d , è un piccolo miglioramento che porta al foto realismo, che potrebbe anche essere ignorato d’altronde nel mondo dei videogiochi ci si diverte con tutto.
Infatti, ma è stata nvidia a spingere proprio su questo per vendere le prime rtx2000 che non avevano quasi senso di esistere (vanno meno delle rtx 6000 che già non vanno benissimo).
Sembrava che il ray tracing era il futuro e che se non prendevi una scheda rtx già quest'anno potevi buttarla nel cassonetto perché ormai sarebbe già diventata obsoleta ?
Per me invece la fregatura se l'è presa proprio chi ha comprato una scheda che prometeva il ray tracing ma non era in grado di supportarlo decentemente come le rtx2000.
--- i due messaggi sono stati uniti ---
quasi raddoppia gli fps e l'immagine migliora
Sicuro ?
In che qualità ?

Perché il quasi raddoppio mi sa che ce l'hai con la "performance" e la qualità dell'immagine è impossibile che migliori con quella modalità...

Mi sa che hai l’idee un po’ confuse,di certo il DLSS non è nato per “aiutare i giochi in RTX”
Pensa che invece all'inizio nvidia aveva pensato di aggiungerlo in modo che funzionasse in automatico solo assieme al ray tracing per impedire che venisse usato da solo per migliorare "a gratis" le performance delle schede.
Purtroppo però (per fortuna per noi) il dlss inizialmente era troppo scarso ed avrebbe fatto fare brutta figura al ray tracing che invece dovevano spingere a tutti i costi (per vendere le 2000 ai prezzi che avevano).
 
Ultima modifica:
Ma cosa inutile, ragazzi ma l'avete mai provato il DLSS? Da come parlate no. Io ho da poco una rtx 3060, il dlss è una cosa pazzesca: su Control e Death Stranding quasi raddoppia gli fps e l'immagine migliora, è pazzesco. Cyberpunk la stessa cosa eh, per giocarlo ad un frame rate ottimo il dlss è obbligatorio, anche senza il ray tracing.
Il DLSS su CP2077 è obbligatorio anche senza RT perché quel gioco è un mattone per qualsiasi scheda, quindi col DLSS, la scheda renderizza a risoluzione inferiore.

“Dato che molto spesso è la risoluzione elevata ad avere il maggior impatto sulle prestazioni in gioco, il DLSS crea le immagini che compongono la scena a schermo a una risoluzione più bassa di quella impostata, dopodiché le trasforma a risoluzione più alta solo alla fine del processo. Il meccanismo funziona grazie all’allenamento a cui è stata sottoposta l’intelligenza artificiale alla base del DLSS, che l’ha resa in grado di riconoscere gli oggetti che compongono la scena, in modo da poter ricostruire al meglio i dettagli delle immagini che altrimenti andrebbero persi durante il processo.“

Questo è un pezzo di articolo preso da Tom’s Hardware Italia, del 25 giugno 2021.

Sarebbe come prendere un film DVD tradizionale e fare un upscaling in 4K. Non avrà mai la stessa qualità di un 4K nativo.
 
probabilmente nons ai dove guardare ti faccio un esempio
Però, non per fare il pignolo, ma se per accorgermi di un effetto "devo sapere dove guardare", forse allora non è questa gran cosa come effetto ?

Sarebbe come prendere un film DVD tradizionale e fare un upscaling in 4K. Non avrà mai la stessa qualità di un 4K nativo.
E' vero, ma può sembrare di qualità migliore se l'immagine iniziale è regolata male (ad esempio è poco nitida).

Infatti molte volte in cui si sente dire che il dlss "aumenta la qualità dell'immagine" secondo me è semplicemente il fatto che all'inizio l'immagine di partenza era regolata "male" (contrasto, nitidezza, saturazione e quant'altro) magari per scelta proprio di chi ha fatto il gioco e magari voleva una scena più buia o sfocata per dire.

Quella cosa di migliorare l'immagine la fa anche l'FSR (anche se è appena uscito) solo che amd lo ha proprio ammesso nero su bianco dicendo che appunto si possono ottenere risultati migliori se le immagini di partenza sono "regolate male".

Ps. Sto parlando del confronto con le immagini a risoluzione nativa, non del fatto che il dlss possa ricreare dettagli che non ci sono nella immagine di partenza a risoluzione inferiore (ma che ci sono in quella nativa ovviamente).
 
Sempre da Tom’s Hardware Italia:

“Grazie all’uso del DLSS è possibile giocare in 4K con un framerate fluido anche con schede video pensate principalmente per il Full HD come la RTX 3060, mentre con soluzioni top di gamma come la RTX 3090 si può perfino giocare in 4K a 144 FPS.”

Credo che un 4K nativo (quindi senza DLSS) a 144 fps non lo regga nessuna 3090.
 
Pubblicità
Pubblicità
Indietro
Top