UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
continuare a fare i conti senza l'oste non ha senso.
queste schede senza RT sono già più veloci di qualsiasi cosa serva per giocare anche in 4K.

è proprio con il RT che serve il DLSS ed è proprio li che serve la scheda veloce.

togliere il DLSS 3 dalle analisi non ha senso,
è come dire che una biciletta professionale va più o meno come una bicicletta di decathlon tolto il ciclista con la maglia rosa sopra.
Ma scusami da quando la tecnologia come dlss, filtri ecc rappresentano e giustificano il prezzo di un prodotto o le sue performance?
Non ricordo che quando uscirono il physx, TAA, nvidia hairworks ecc abbiano impattato sul prezzo ne tanto meno il dlss 1 e dlss 2.

Noi dobbiamo valutare l'hardware in primis e confrontarlo con ciò che già esiste sul mercato per valutare se ne vale la pena acquistarlo o consigliarlo, inoltre se la rtx 3090 va quanto la rtx 4070 12GB ( mi rifiuto di chiamarla 80 ), in raster, significa che nvidia ti sta vendendo l'hardware a 499/599$ e 600/500$ di tecnologia, che parliamoci chiaro è un miglioramento della tecnologia già esistente e niente di nuovo.
 
continuare a fare i conti senza l'oste non ha senso.
queste schede senza RT sono già più veloci di qualsiasi cosa serva per giocare anche in 4K.

è proprio con il RT che serve il DLSS ed è proprio li che serve la scheda veloce.

togliere il DLSS 3 dalle analisi non ha senso,
è come dire che una biciletta professionale va più o meno come una bicicletta di decathlon tolto il ciclista con la maglia rosa sopra.
Hai ragione però i confronti si fanno a parità di condizioni, in questo caso si possono fare solo in raster altrimenti non ha senso, è ovvio che con il dlss 3 vanno meglio
 
Trovo triste dover arrivare a spiegare anche queste cose cosi ovvie.
anch'io dico la stessa cosa.
mi sembra che mancano i concetti basici del ragionamento logico. :)

per me il discorso che ho fatto non fa una piega.
a me interessa il risultato finale, non mi interessa trarre conclusioni sconclusionate.

gioco a Cyberpunk 2077 con RT e quindi con DLSS con una 3090Ti e con una 4070, quale scheda è più veloce?
perchè devo preoccuparmi di come va la scheda senza DLSS? che senso ha?

se vuoi giocare senza DLSS significa che vuoi giocare senza RT, se vuoi giocare senza RT una scheda vale l'altra,
ricordo che queste schede hanno la parola Ray Tracing nel nome.

si chiamano RTX e non GTX a posta.

dai su, fate i bravi.
 
anch'io dico la stessa cosa.
mi sembra che mancano i concetti basici del ragionamento logico. :)

per me il discorso che ho fatto non fa una piega.
a me interessa il risultato finale, non mi interessa trarre conclusioni sconclusionate.

gioco a Cyberpunk 2077 con RT e quindi con DLSS con una 3090Ti e con una 4070, quale scheda è più veloce?
perchè devo preoccuparmi di come va la scheda senza DLSS? che senso ha?

se vuoi giocare senza DLSS significa che vuoi giocare senza RT, se vuoi giocare senza RT una scheda vale l'altra,
ricordo che queste schede hanno la parola Ray Tracing nel nome.

si chiamano RTX e non GTX a posta.

dai su, fate i bravi.

Non è un confronto alla pari RTX4080 finta con DLSS 3.0 e frame generation attiva contro RTX3090ti con DLSS 2.0: la RTX4080 finta sta interpolando, per forza di cose avrai molti più fps.
L'interpolazione però ha un prezzo a livello di latenze e artefatti che non è ancora del tutto chiaro: per ora l'unica cosa che mi sento di escludere è che impatti sulla costanza del frametime (ma comunque andrà riverificato su più giochi).
Se la qualità di quanto mostrato a schermo non è uguale, che senso ha confrontare gli fps? E' come dire che la RTX4080 se abbassi i dettagli va molto meglio della RTX3090ti che renderizza a dettagli ultra: per forza...
Un confronto alla pari sarebbe stato RTX3090ti con DLSS2.0 e RTX4080 con DLSS 3.0 senza frame generation, ipotizzando che l'algoritmo di upscaling funzioni in modo simile tra DLSS 2.0 e 3.0 (e questo ancora in effetti non si sa).

Sono d'accordo anche io che il DLSS 3.0 con la sua frame generation andrà considerato nell'equazione e probabilmente sarà un forte incentivo all'acquisto delle nuove schede. Ma finchè non sarà testato adeguatamente non ci si può far conto, perchè comunque ha dei lati negativi.
Se il responso delle prime analisi è più che positivo riguardo la questione artefatti (pur essendo test limitati e preliminari), la questione latenze a maggior ragione merita un approfondimento, perchè ovviamente usando una tecnologia di interpolazione la latenza aumenta, quindi la reattività del gioco diminuisce, bisogna capire se in modo percettibile o meno.
 
Ma scusami da quando la tecnologia come dlss, filtri ecc rappresentano e giustificano il prezzo di un prodotto o le sue performance?
Non ricordo che quando uscirono il physx, TAA, nvidia hairworks ecc abbiano impattato sul prezzo ne tanto meno il dlss 1 e dlss 2.

Noi dobbiamo valutare l'hardware in primis e confrontarlo con ciò che già esiste sul mercato per valutare se ne vale la pena acquistarlo o consigliarlo, inoltre se la rtx 3090 va quanto la rtx 4070 12GB ( mi rifiuto di chiamarla 80 ), in raster, significa che nvidia ti sta vendendo l'hardware a 499/599$ e 600/500$ di tecnologia, che parliamoci chiaro è un miglioramento della tecnologia già esistente e niente di nuovo.
4070 ( 4080 visto che a conti fatti nella realtà così si chiama) con più memoria inoltre... voi dite " non ci fai nulla", intanto hai più memoria e poi si vede. PEr quel prezzo.... insomma
 
Poi sono d'accordo anche io che il DLSS 3.0 con la sua frame generation andrà considerato nell'equazione e probabilmente sarà un forte incentivo all'acquisto delle nuove schede. Ma finchè non sarà testato adeguatamente non ci si può far conto, perchè comunque ha dei contro pure lui.
beh direi che siamo d'accordo e non c'è altro da aggiungere, però a questo punto che senso ha continuare a paragonare delle schede senza DLSS sapendo che il DLSS sarà il vero motivo per cui scegliere queste schede così costose.
punti di vista, aspettiamo i bench.
a me di come va una 4090 senza DLSS non importa, se andasse come una 3090 prenderei cmq la 4090 solo per il DLSS.

--- i due messaggi sono stati uniti ---
Se sugli artefatti sembra che si possa stare tranquilli dalle prime analisi, la questione latenze merita un approfondimento perchè ovviamente usando una tecnologia di interpolazione la latenza aumenta, quindi la reattività del gioco diminuisce, bisogna capire se in modo percettibile o meno.
in realtà sembra che si possa stare tranquilli anche sulle latenze grazie a nvidia reflex.
il frame insertion ha comunque latenze molto più basse se usato in combinazione con nvidia reflex e del tutto paragonabili ad un rendering senza frame insertion sempre con nvidia reflex.
ecco perchè su giochi come spiderman reflex è obbligatorio una volta abilitato il frame insertion.
 
Ultima modifica:
Non è un confronto alla pari RTX4080 finta con DLSS 3.0 e frame generation attiva contro RTX3090ti con DLSS 2.0: la RTX4080 finta sta interpolando, per forza di cose avrai molti più fps.
L'interpolazione però ha un prezzo a livello di latenze e artefatti che non è ancora del tutto chiaro: per ora l'unica cosa che mi sento di escludere è che impatti sulla costanza del frametime (ma comunque andrà riverificato su più giochi).
Se la qualità di quanto mostrato a schermo non è uguale, che senso ha confrontare gli fps? E' come dire che la RTX4080 se abbassi i dettagli va molto meglio della RTX3090ti che renderizza a dettagli ultra: per forza...
Un confronto alla pari sarebbe stato RTX3090ti con DLSS2.0 e RTX4080 con DLSS 3.0 senza frame generation, ipotizzando che l'algoritmo di upscaling funzioni in modo simile tra DLSS 2.0 e 3.0 (e questo ancora in effetti non si sa).

Sono d'accordo anche io che il DLSS 3.0 con la sua frame generation andrà considerato nell'equazione e probabilmente sarà un forte incentivo all'acquisto delle nuove schede. Ma finchè non sarà testato adeguatamente non ci si può far conto, perchè comunque ha dei lati negativi.
Se il responso delle prime analisi è più che positivo riguardo la questione artefatti (pur essendo test limitati e preliminari), la questione latenze a maggior ragione merita un approfondimento, perchè ovviamente usando una tecnologia di interpolazione la latenza aumenta, quindi la reattività del gioco diminuisce, bisogna capire se in modo percettibile o meno.
Questa è cultura tecnologica, continua che sto imparando un sacco di cose🙂 ( senza scherzi).... anche se mi servirebbe anche un vocabolario..😅
 
beh direi che siamo d'accordo e non c'è altro da aggiungere, però a questo punto che senso ha continuare a paragonare delle schede senza DLSS sapendo che il DLSS sarà il vero motivo per cui scegliere queste schede così costose.
punti di vista, aspettiamo i bench.
a me di come va una 4090 senza DLSS non importa, se andasse come una 3090 prenderei cmq la 4090 solo per il DLSS.

--- i due messaggi sono stati uniti ---

in realtà sembra che si possa stare tranquilli anche sulle latenze grazie a nvidia reflex.
il frame insertion ha comunque latenze molto più basse se usato in combinazione con nvidia reflex e del tutto paragonabili ad un rendering senza frame insertion sempre con nvidia reflex.
ecco perchè su giochi come spiderman reflex è obbligatorio una volta abilitato il frame insertion.

Nvidia ha messo il DLSS3.0 (quasi) dappertutto per drogare i risultati, ma, come è ovvio che sia in una presentazione di questo tipo, non è stata esauriente riguardo i possibili lati negativi della frame generation.
Quindi si cerca di capire cosa può fare la nuova architettura senza che la frame generation si metta in mezzo, che è diverso da ignorare la sua esistenza in fase di acquisto (almeno io la penso così).
E' chiaro che si fa tutto per parlare... Le risposte certe su tutto si avranno con le prime recensioni. Ma finchè non escono, il materiale che abbiamo è questo e parliamo di questo.

Per quanto riguarda la questione latenze, DLSS 3.0 con frame generation attiva e Reflex ON fa sempre peggio di DLSS 2.0 con Reflex ON (nulla di strano sapendo come lavora): ma quanto peggio? E' questa la chiave. Perchè non è detto che alcuni ms in più di latenza di rendering diano fastidio o siano addirittura percepibili.
Comunque è probabile che in certi ambiti il DLSS 3.0 (o meglio, la frame generation) non verrà usato (esports ad esempio).

Hai visto la prova di Digital Foundry?


Questa è cultura tecnologica, continua che sto imparando un sacco di cose🙂 ( senza scherzi).... anche se mi servirebbe anche un vocabolario..😅

In realtà sono un ingegnere elettrico (quasi, insomma...) prestato ai PC, tutte queste menate informatiche\software le capisco fino a un certo punto.
Ma comunque se mi dici cosa non è chiaro posso provare a spiegare meglio.
 
Nvidia ha messo il DLSS3.0 (quasi) dappertutto per drogare i risultati, ma, come è ovvio che sia in una presentazione di questo tipo, non è stata esauriente riguardo i possibili lati negativi della frame generation.
Quindi si cerca di capire cosa può fare la nuova architettura senza che la frame generation si metta in mezzo, che è diverso da ignorare la sua esistenza in fase di acquisto (almeno io la penso così).
E' chiaro che si fa tutto per parlare... Le risposte certe su tutto si avranno con le prime recensioni. Ma finchè non escono, il materiale che abbiamo è questo e parliamo di questo.

Per quanto riguarda la questione latenze, DLSS 3.0 con frame generation attiva e Reflex ON fa sempre peggio di DLSS 2.0 con Reflex ON (nulla di strano sapendo come lavora): ma quanto peggio? E' questa la chiave. Perchè non è detto che alcuni ms in più di latenza di rendering diano fastidio o siano addirittura percepibili.
Comunque è probabile che in certi ambiti il DLSS 3.0 (o meglio, la frame generation) non verrà usato (esports ad esempio).

Hai visto la prova di Digital Foundry?




In realtà sono un ingegnere elettrico (quasi, insomma...) prestato ai PC, tutte queste menate informatiche\software le capisco fino a un certo punto.
Ma comunque se mi dici cosa non è chiaro posso provare a spiegare meglio.
Sarebbero talmente tante le cose da chiedere, che finiremmo domani. ma questa cosa degli artefatti mi sembra interessante,anche se io ho capito solo il termine "artefatto" 😀
 
Sono d'accordo anche io che il DLSS 3.0 con la sua frame generation andrà considerato nell'equazione e probabilmente sarà un forte incentivo all'acquisto delle nuove schede.
In questo sono d'accordo in parte.
Cosi' come avevo gia' sctittoa @techsaskia , sarei pienamente d'accordo se NVidia avesse legato commercialmente (con contratto commerciale) il DLSS 3.0 esclusivamente alla generazione 4000 e successive.
La serie 3000 (ed inferiori) non avrebbero mai avuto il DLSS 3.0 (altrimenti NVidia sarebbe stata legalmente perseguibile) e che sarebbe divenuto una costante (fissa) imprescindibile dell'equazione.

Ma NVidia e' volutamente stata ambigua... non dicendo nulla a riguardo.
(nemmeno se esista un vincolo/accelerazione hardware nella serie 4000 che lo renda esclusivo e/o inutilizzabile su tutte le 3000)

Per cui il DLSS 3.0 diventa una variabile .. e non una costante dell'equazione (fino a prova contraria).
Oggi e' una discriminante fondamentale per vendere RTX 4000, ma un domani non e' detto che non lo possa diventare anche per la serie 3000, se fosse per competere "anche" sulle fasce piu' basse (i.e. contro le nuove schede RDNA3 AMD e poter continuare a vendere 3000).
E a questo punto il divario potrebbe non essere piu' cosi' evidente tra la 3090/3090TI e la 4080 16GB...ed addirittura non esserci proprio con la 4080 4070 12GB

Per questo, nel valutare l'evoluzione del prodotto RTX 4000 (rispetto alla precedente generazione) personalmente non prendero' in considerazione il DLSS 3.0, sebbene poi, se dovessi giocare, cio' influirebbe sulle performance ed anche in modo significativo... per ora.

P.S.
La 4090 e' discorso a parte, perche' dal punto di vista hardware e' "numericamente" superiore... e di gran lunga.
(mi riferisco al numerico aumento di tutte le unita' di caclolo, rispetto alla 3090TI ed anche alle 2 4080)
 
Ultima modifica:
Sarebbero talmente tante le cose da chiedere, che finiremmo domani. ma questa cosa degli artefatti mi sembra interessante,anche se io ho capito solo il termine "artefatto" 😀
Ti spiego cosa intendeva @pribolo con artefatti generati dal dlss 3.
Intanto un artefatto in ambito informatico, grafico in questo caso è qualcosa che non dovrebbe comparire su schermo, come un errore grafico o un difetto grafico. Per esempio quando una gpu sta "morendo", spesso genera artefatti come poligoni o altre forme geometriche su schermo poiché non riesce più a generare correttamente i poligoni del gioco, spesso anche macchie di colore o puntini colorati, tutti questi possono essere definiti artefatti grafici.
Che cosa fa il dlss 3 ?! Praticamente utilizza la interpolazione dei frame, cioè mentre la gpu sta generando il prossimo frame il dlss 3 ne inserisce uno creato dalla I.A. per ridurre la latenza e quindi di conseguenza aumentare il frame rate, in poché parole inganna il tempo con un frame aggiuntivo aggiunto dalla I.A. mentre si aspetta la generazione del frame dalla gpu, questo per darti una sensazione più fluida del gioco. Fare ciò non è preciso come generare effettivamente un vero frame( cioè creato dalla gpu ), poiché quello generato in mezzo ai due frame è creato dalla I.A. che cerca di immaginare come dovrebbe essere questo frame. Quindi potrebbe capitare, soprattutto nei giochi super frenetici come quelli competitivi che questi frame generati dalla I.A. non siano precisi e corretti al 100% e questo lo si potrebbe notare soprattutto ad alti refresh rate. Quindi se un utente si compra un monitor 240hz perché gioca competitivo, lo fa perché vuole tutti i frame puliti, dettagliati e precisi poiché vuole un vantaggio sugli avversari, il dlss 3 potrebbe creare problemi per i motivi citati poco fa.
 
Ultima modifica:
Ti spiego cosa intendeva @pribolo con artefatti generati dal dlss 3.
Intanto un artefatto in ambito informatico, grafico in questo caso è qualcosa che non dovrebbe comparire su schermo, come un errore grafico o un difetto grafico. Per esempio quando una gpu sta "morendo", spesso genera artefatti come poligoni o altre forme geometriche su schermo poiché non riesce più a generare correttamente i poligoni del gioco, spesso anche macchie di colore o puntini colorati, tutti questi possono essere definiti artefatti grafici.
Che cosa fa il dlss 3 ?! Praticamente utilizza la interpolazione dei frame, cioè mentre la gpu sta generando il prossimo frame il dlss 3 ne inserisce uno creato dalla I.A. per ridurre la latenza e quindi di conseguenza aumentare il frame rate, in poché parole inganna il tempo con un frame aggiuntivo aggiunto dalla I.A. mentre si aspetta la generazione del frame dalla gpu, questo per darti una sensazione più fluida del gioco. Fare ciò non è preciso come generare effettivamente un vero frame( cioè creato dalla gpu ), poiché quello generato in mezzo ai due frame è creato dalla I.A. che cerca di immaginare come dovrebbe essere questo frame. Quindi potrebbe capitare, soprattutto nei giochi super frenetici come quelli competitivi che questi frame generati dalla I.A. non siano precisi e corretti al 100% e questo lo si potrebbe notare soprattutto ad alti refresh rate. Quindi se un utente si compra un monitor 240hz perché gioca competitivo, lo fa perché vuole tutti i frame puliti, dettagliati e precisi poiché vuole un vantaggio sugli avversari, il dlss 3 potrebbe creare problemi per i motivi citati poco fa.
poi useranno quel frame di mezzo per inserire messaggi subliminali o un frame di un pene come in fight club
 
poi useranno quel frame di mezzo per inserire messaggi subliminali o un frame di un pene come in fight club
Vedo che hai capito tutto. Che fai non li spendi 2000 euro per vedere per un 0,000001ms l'immagine di @crimescene che fa cadere intenzionalmente la rtx 4090 mentre sorride in camera ? Te ne privi ??
Questi sono messaggi subliminali che giustificano l'acquisto.
 
Pubblicità
Pubblicità
Indietro
Top