UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Onestamente solo un incompetente potrebbe aspettarsi un aumento prestazionale di 3 volte con anche il RT attivo.
Anzi onestamente credo molto poco a questo grafico per un motivo: non conosco cpu che possa star dietro a questo aumento prestazionale della scheda video.

Le schede sono valide…..ma il resto è molta fuffa


Inviato dal mio iPhone utilizzando Tapatalk Pro
 
L'hanno fatto vedere... CP2077 in 4K a 130 fps
Ok quindi non è un aumento del 300% sul 4k con DLSS 2.0, è un aumento del 300% del 4k nativo che fatica a tenere i 40fps.
È volutamente confusionario.

Aggiungo l'intera lista
geforce-rtx-4090-nvidia-dlss-3-game-performance.png
 
Qualcuno ha capito perché il dlss 3.0 non è compatibile con le gen passate di rtx ?
Per farmi capire meglio faccio un esempio banale e stupido, il dlss non è compatibile con pascal e gen più vecchie perché non hanno l'hardware dedicato ( tensor core ), mi spiegate cosa manca ad una rtx 3080 per non supportare il dlss 3.0 ?
ha i tensor core di vecchia generazione. i nuovi sono capaci di generare un nuovo frame anzichè nuovi pixel, giacchetta nera lo spiega bene.
 
Ma infatti se ci fate caso non si è visto nessun confronto senza dlss e inoltre tutto quello che hanno detto o fatto vedere era alla base della rtx 4090 che al confronto con la rtx 4080 16gb è su un altro pianeta, cioè ha il doppio dei cuda core e un bus di memoria superiore per non parlare del limite del tdp che può permettere un boost superiore. Io penso ( opinione personale ) che a conti fatti tra una rtx 3080ti e una rtx 4080 16gb senza dlss 3.0 ( quindi confrontate in nativo o con dlss 2.0 ) non ci sarà tutto questo abisso di prestazioni, oso sparare un 30% max.
Il modello 12gb è ulteriormente castrato, quindi il margine sarà anche ridotto.
Io aspetto il video di Jim del canale AdoredTV per farmi due risate su questa architettura, sento puzza di 💩💩 tolta la rtx 4090 che sembra a tutti gli effetti un mostro di gpu ( grazie al ca... guarda il prezzo, dati tecnici e tdp ) e soprattutto il dlss 3.0, questa architettura risulterà essere fuffa. Io vedo solo un incremento di frequenza grazie al processo produttivo e una tecnologia fatta su misura per boostare i "numeri" di nvidia ( ripeto, tolta la rtx 4090 che è un altra cosa rispetto ai modelli inferiori ).
 
Ok quindi non è un aumento del 300% sul 4k con DLSS 2.0, è un aumento del 300% del 4k nativo che fatica a tenere i 40fps.
È volutamente confusionario.

Aggiungo l'intera lista
geforce-rtx-4090-nvidia-dlss-3-game-performance.png
ma avete visto i grafici che ho postato che sono sul sito ufficiale?
la 4090 va 4 volte la 3090Ti su cyberpunk
la 4080 va 3 volte la 3080Ti su cyberpunk1663702330380.webp

1663702342366.webp
 
ha i tensor core di vecchia generazione. i nuovi sono capaci di generare un nuovo frame anzichè nuovi pixel, giacchetta nera lo spiega bene.
Amico mio, guardati questo video e poi dopo averlo fatto rientra nel forum e conferma ciò che mi hai appena scritto. Nvidia in 20 anni ha usato mezzi al limite del legale pur di stare sul podio. Non credo ad una singola parola, il dlss 3.0 girerebbe anche su le rtx 3000 e 2000.
--- i due messaggi sono stati uniti ---
ma avete visto i grafici che ho postato che sono sul sito ufficiale?
la 4090 va 4 volte la 3090Ti su cyberpunk
la 4080 va 3 volte la 3080Ti su cyberpunkVisualizza allegato 441811

Visualizza allegato 441812
Si ma sono grafici fatti da nvidia xD io aspetterei le recensioni di hardware unboxed, gamers nexus e compagnia bella.
Quante volte hanno mentito sui grafici ?! Ho perso il conto.
 
Amico mio, guardati questo video e poi dopo averlo fatto rientra nel forum e conferma ciò che mi hai appena scritto. Nvidia in 20 anni ha usato mezzi al limite del legale pur di stare sul podio. Non credo ad una singola parola, il dlss 3.0 girerebbe anche su le rtx 3000 e 2000.
--- i due messaggi sono stati uniti ---

Si ma sono grafici fatti da nvidia xD io aspetterei le recensioni di hardware unboxed, gamers nexus e compagnia bella.
Quante volte hanno mentito sui grafici ?! Ho perso il conto.
guarda di consolare un utente che gli si è fatta la scheda vecchia di colpo e che ci è rimasto male non ho nessuna voglia.
questo è quello che ci ha detto nvidia. non andrà 4 volte più forte in cyberpunk? andrà 3 volte? per me è sufficiente per dire che sono delle schede da paura.

riguardo ai tensor core hai qualche dato oggettivo per dire che i vecchi andavano bene uguale?

ma dai su. qua hanno cambiato completamente come lavora il DLSS, non c'entra più niente rispetto a prima. non diciamo minchi@te
--- i due messaggi sono stati uniti ---
Io non ho una 3090ti ed uno schermo 4k per provare, ma mi pare proprio strano che col dlss in performance mode faccia 35 fps...
non avranno usato il performance mode, avranno usato il quality per il confronto?
--- i due messaggi sono stati uniti ---
tutti dicevano che ci dovevamo cambiare gli alimentatori
qua anzichè gli alimentatori ci dobbiamo cambiare i case,

la 4090 Strix è 357mm... Nel mio Corsair 4000D non ci entra. :(
 
guarda di consolare un utente che gli si è fatta la scheda vecchia di colpo e che ci è rimasto male non ho nessuna voglia.
questo è quello che ci ha detto nvidia. non andrà 4 volte più forte in cyberpunk? andrà 3 volte? per me è sufficiente per dire che sono delle schede da paura.

riguardo ai tensor core hai qualche dato oggettivo per dire che i vecchi andavano bene uguale?

ma dai su. qua hanno cambiato completamente come lavora il DLSS, non c'entra più niente rispetto a prima. non diciamo minchi@te
--- i due messaggi sono stati uniti ---

non avranno usato il performance mode, avranno usato il quality per il confronto?

Scusami eh, ma per me sei un po’ ingenuo, credi ancora a quelle slide di giacchetta?…e su dai che non sei neanche un ragazzetto ma sei pure vecchio e vaccinato


Inviato dal mio iPhone utilizzando Tapatalk Pro
 
guarda di consolare un utente che gli si è fatta la scheda vecchia di colpo e che ci è rimasto male non ho nessuna voglia.
questo è quello che ci ha detto nvidia. non andrà 4 volte più forte in cyberpunk? andrà 3 volte? per me è sufficiente per dire che sono delle schede da paura.

riguardo ai tensor core hai qualche dato oggettivo per dire che i vecchi andavano bene uguale?

ma dai su. qua hanno cambiato completamente come lavora il DLSS, non c'entra più niente rispetto a prima. non diciamo minchi@te
--- i due messaggi sono stati uniti ---

non avranno usato il performance mode, avranno usato il quality per il confronto?
4 volte o 3 volte non cambia se questo boost si ottiene solo con il dlss 3.0 fatto su misura per vendere. Se fosse vero che il dlss 3.0 potrebbe girare sulle precedenti gpu, significherebbe che il tipo con la giacchetta nera ti sta mettendo a 89+1.
 
Scusami eh, ma per me sei un po’ ingenuo, credi ancora a quelle slide di giacchetta?…e su dai che non sei neanche un ragazzetto ma sei pure vecchio e vaccinato


Inviato dal mio iPhone utilizzando Tapatalk Pro
non sarà 4x, sarà 3x?
non si parla di DLSS fatto su misura, si parla del nuovo DLSS che verrà introdotto in tutti i nuovi titoli così come è stato introdotto il DLSS2.

alcuni titoli saranno senza DLSS, quelli più importanti e dove serve maggiormente ce l'avranno come è stato per il DLSS2.

su cosa dobbiamo discutere?
quindi tu sei della scuola che una 4090 fa il 30% in più di una 3080? :D
--- i due messaggi sono stati uniti ---
4 volte o 3 volte non cambia se questo boost si ottiene solo con il dlss 3.0 fatto su misura per vendere. Se fosse vero che il dlss 3.0 potrebbe girare sulle precedenti gpu, significherebbe che il tipo con la giacchetta nera ti sta mettendo a 89+1.
discorso senza senso basato sul nulla. i tensor core sono dei chip molto specializzati, basta poco per richiederne un aggiornamento, qui stiamo parlando di un DLSS che riscrive il modo di lavorare.
 
non sarà 4x, sarà 3x?
non si parla di DLSS fatto su misura, si parla del nuovo DLSS che verrà introdotto in tutti i nuovi titoli così come è stato introdotto il DLSS2.

alcuni titoli saranno senza DLSS, quelli più importanti e dove serve maggiormente ce l'hanno.

su cosa dobbiamo discutere?
quindi tu sei della scuola che una 4090 fa il 30% in più di una 3080? :D
--- i due messaggi sono stati uniti ---

discorso senza senso basato sul nulla. i tensor core sono dei chip molto specializzati, basta poco per richiederne un aggiornamento, qui stiamo parlando di un DLSS che riscrive il modo di lavorare.

Sono della scuola che a me il DLSS fa cacare a prescindere ecco, sei contenta così?

P.S. non me ne volere male……ma tu credi troppo alle favole, per poi ritornare sul mondo reale quando ti rendi conto bene della situazione.
Ander lake e RAM DDR5 docet
Inviato dal mio iPhone utilizzando Tapatalk Pro
 
Sono della scuola che a me il DLSS fa cacare a prescindere ecco, sei contenta così?


Inviato dal mio iPhone utilizzando Tapatalk Pro

eh vabbè significa che non lo capisci :D
il DLSS (e similari) è la tecnologia più bella inventata nella CG negli ultimi anni.
qua non parliamo di un gelato al limone contro quello alla fragola, qua parliamo di una tecnologia che oggettivamente da dei vantaggi innegabili e che nel tempo ha dato più benefici che svantaggi.

se ti fa cagare, significa solo che non lo capisci, non significa altro :)

oggi il raytracing realtime è possibile solo grazie al DLSS e domani pure.
 
Pubblicità
Pubblicità
Indietro
Top