UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
scusate ragazzi domanda un po' ot ma non saprei dove chiedere: io avevo settato l'undervolt seguendo la guida di crime, ora dovrei passare dalla 3070 alla 3070 ti, è necessario qualche aggiustamento su afterburner?
 
Proprio no ? quello lo dovrebbe fare il dlss semmai

Centinaia proprio no.
Ad arrivare a 100 probabilmente farà prima FSR di amd dato che lo avranno tutti i giochi presenti su console.

Ma chi te lo ha detto ? Tutta la pubblicità che paga nvidia immagino.
Chi dice che dover eseguire il gioco per centinaia di ore nelle costosissime server farm di nvidia per allenare una IA sia meglio di un prodotto che, a detta degli sviluppatori, si implementa nel motore dei giochi in due ore e poi si perfeziona in qualche giorno ?
Chi ti dice che nvidia continuerà a pagare (come ha fatto fino ad ora) per far usare il DLSS nei giochi, pagando tutte le spese di sviluppo (sviluppatori, server farm, ecc...) ?
--- i due messaggi sono stati uniti ---

Ho detto che è migliore (di gran lunga) del DLSS appena uscito, cioè del 1.0.
Ovvio che con 2 anni di vantaggio DLSS 2.2 (o il numero che è) è meglio ma guardando alla partenza, FSR è partito meglio. Questo dicevo, avete capito male.
--- i due messaggi sono stati uniti ---

Non uso fortnite, ma su battlefield 5, uno dei primi ad avere il RT avevano messo tutto lucido e riflettente per far vedere quanto bello fosse il ray tracing solo che sembrava che qualsiasi cosa fosse cromata e non era affatto bello, è risaputo.

Adesso i giochi saranno meno di 100 si, ed in ogni caso le cose le voglio provare con mano, non mi interessa vedere video su Youtube super compressi, oppure recensioni fatte per marchette o altro. E si, posso affermare che il modulo hardware funziona meglio perché a casa ho un monitor Freesync con Gsync compatibile ed uno con modulo, ed oltre al fatto che quello hardware lavora diversamente, e basta fare delle ricerche, va nettamente meglio, anche se costa di più. Idem per DLSS che lavora in modo totalmente diverso da quello AMD. Poi se si stanno ad ascoltare le mille recensioni non si capisce nulla, infatti seguo poco o nulla. Io compro e provo.
 
scusate ragazzi domanda un po' ot ma non saprei dove chiedere: io avevo settato l'undervolt seguendo la guida di crime, ora dovrei passare dalla 3070 alla 3070 ti, è necessario qualche aggiustamento su afterburner?
La 3070 Ti consuma leggermente più, rispetto alla “liscia”. Quindi immagino che qualcosina potresti provare a farla, poi potrebbe essere non necessario eh.
 
ma guardate che i limitti dell FSR sono stati già messi in evidenza da Digital Foundery
C'è un grosso guadagno di FPS ma a scapito di una qualità grafica che risente fortemetn4e delle scaling

Il video si trova in rete

MEntre per il DLSS sono stati risolt emolte altre cose coem il problema ghosting in alcune texture
Il DLSS 1.0 aveva limiti ben maggiori dal FSR 1.0... Io sono fiducioso che possa migliorare molto anche quest'ultimo rapidamente.

Comunque il problema fondamentale del DLSS, secondo me, è la necessità di utilizzare dei core specifici (i tensor core se non sbaglio). E questo non è un vantaggio come qualcuno diceva prima perché si va a togliere spazio nel die ai core più utili per il gaming.
1625492753543.png
Come si vede non occupano affatto poco spazio, occupano più di 1/4 degli SM.
Quello che mi chiedo è: quante prestazioni in più si avrebbero usando al posto dei tensor cores (che sono inefficienti per il gaming), dei core ottimizzati "per il gaming" ?
Non saprei se a quel punto, potendo scegliere, converrebbe prendere una scheda "tensor cores" + DLSS oppure una scheda "100%gaming" senza DLSS ?

L'impressione che ho (magari sbaglio) è che quei "tensor cores" siano necessari a vendere le schede ai professionisti/aziende/ricercatori/ecc... Che, conoscendo la materia e guardando ai dati pratici, sarebbero difficili da "imbrogliare" dicendo che una scheda 100% gaming faccia al caso loro.

Molto più semplice invece è convincere i "gamers" (con abbondanti dosi di marketing), che i "tensor cores", sviluppati per scopi totalmente diversi dal gaming, in realtà servano anche a loro.
 
Questo è un po' un autogol se cerchi di difendere nvidia (posto che non penso tu sia un fanboy eh) ?

Comunque allora immagino prenderai una scheda amd al più presto dato che Nvidia non si degna neanche di inserire lo "scheduler" a livello hardware ma lascia fare tutto alla cpu via drivers andando a pesare su di essa invece che svolgere quella funzione da se come le schede amd.

lo scheduling hardware sulle RTX c'è da un po' di tempo eh...

Tra l'altro se non ricordo male HWUnboxed aveva trovato che il carico trasferito corrispondeva a circa 10-30Watt. Quindi, volendo essere corretti, quando si considerano i valori di potenza delle schede nvidia, bisognerebbe aggiungerci 10-30w.
non ho capito di che parli ?
Non solo, in alcuni casi, si è visto come passare da una scheda vecchia ad una più recente Nvidia, aumentasse il bottleneck sulla cpu e riducesse le prestazioni. Erano sistemi vecchi comunque ma faceva "impressione" vedere diminuire gli fps togliendo una rx570 ed aggiungendo una 2060super in un sistema (ripeto, con cpu non recente) ?

si, questo è un noto problema di overhead sulle schede Nvidia che rendono davvero male con CPU più vecchiotte (già con gli Zen+)

Volendo pensare alla longevità futura, con una cpu a 6 core come hanno in molti, proprio per via di questo "spostamento di carico sulla cpu", magari le 3000 creeranno bottleneck prima delle 6000 (che hanno lo scheduler implementato nel loro chip a livello hw appunto) ed allora non ci sarà RT o DLSS o FSR che tenga.
Ovviamente si vedrà...
continui a sbagliare eh: lo scheduling hardware sulle RTX è attivo da molti mesi.

1625493758079.webp

Siccome sono da telefono, mi si scaricherebbe la batteria a scrivere poemi, cerco di essere il più sintetico possibile.

Io non sono confuso su cosa sia il RT e su cosa il DLSS. Il fatto è che se la scheda andasse bene in RT non avrei nulla da dire. Invece il RT richiede parecchie risorse ed è giusto il calo di fps. Per sopperire al calo di fps dati dal RT hanno creato il DLSS.

Il DLSS è una porcheria che ha sviluppato Nvidia (azienda che stimo parecchio) che per me non ha senso. Renderizza l’immagine a una qualità inferiore per poi spararla a risoluzione scelta durante ”l’ultimo step”.

Se io col mio 3400G, su Fortnite (con DirectX 11) imposto (cosa che ho già provato) la risoluzione a 1440p e rendering al 50%, la Vega 11 mi scarica 70/80 fps, però non vado in giro a dire che gioco in 1440p, perché gioco con una risoluzione fake porcheria.

Se avessi voluto giocare a 1080p, avrei preso un monitor 1080p 120hz e una 3060 Ti e avrei risparmiato soldi senza bisogno di attivare il DLSS per un fake 1440p.

Sono punti di vista (in questo caso, il mio), però, ripeto, io preferisco giocare a risoluzione nativa piuttosto che un fake.
Mi spiace ma il tuo post mi dimostra che non hai capito come funziona il DLSS.
La “porcheria” è il rendering al 50% via software che hai provato con la Vega11 ??‍♂️

Non c’è nulla di fake: se fai una partita a Control ti accorgi che a 1440P con DLSS è meglio che senza.

Cosa sarebbe? Si può attivare dalle impostazioni windows?
Lo screenshot è preso dal mio pannello impostazioni di Windows

Ero convinto di no per via del driver overhead che è presente anche nelle RTX. Pensavo fosse quello a causarlo, errore mio scusate.

La situazione comunque non cambia perché (anche se non dovuto allo scheduler allora) il problema dell'overhead esiste anche sulle RTX.

Ecco un esempio che avevo visto:
(Ci sono molti altri confronti in questo video.)

In alcuni casi, una RTX3090 produce paradossalmente meno fps di una 5600xt perché aggrava notevolmente il bottleneck della cpu.
Ma accadrebbe anche con una RTX2060.

Per adesso il problema sembra presentarsi con processori fino al 2600 però in futuro, con la maggiore ed ormai certa parallelizzazione dei giochi che sfrutterà sempre di più le cpu, credo potrebbe estendersi anche alle cpu successive dal 3600 in avanti.
Dopo tutto warzone se non erro arriva a picchi del 70-80% su un 5600x quindi, sebbene presente, non resta troppo margine di sicurezza prima di arrivare al bottleneck (sebbene quei picchi di utilizzo siano molto brevi). Forse un 3600 sarebbe già a rischio.
Quel problema di overhead è reale e noto, ma l’hw scheduling non c’entra nulla.
Probabilmente Nvidia non ha interesse a curare l’ottimizzazione con vecchie CPU, ma teniamo conto anche che Zen e Zen+ non sono mai state un granché per il gaming ed il problema si evidenzia soprattutto con loro.
La differenza che c’è passando a Zen2, e quella immensa passando a Zen3, mi fa pensare che il problema sarà assai meno evidente nel futuro.

Comunque resta il discorso di fondo sul fatto che un sistema deve essere bilanciato: una 3070 su un 2600X io non la metterei mai per giocare in FHD.
 
lo scheduling hardware sulle RTX c'è da un po' di tempo eh...


non ho capito di che parli ?


si, questo è un noto problema di overhead sulle schede Nvidia che rendono davvero male con CPU più vecchiotte (già con gli Zen+)


continui a sbagliare eh: lo scheduling hardware sulle RTX è attivo da molti mesi.

Visualizza allegato 411520
Cosa sarebbe? Si può attivare dalle impostazioni windows?
 
scusate ragazzi domanda un po' ot ma non saprei dove chiedere: io avevo settato l'undervolt seguendo la guida di crime, ora dovrei passare dalla 3070 alla 3070 ti, è necessario qualche aggiustamento su afterburner?
Teoricamente no… ma io rifarei il profilo da capo.
 
lo scheduling hardware sulle RTX c'è da un po' di tempo eh...
Ero convinto di no per via del driver overhead che è presente anche nelle RTX. Pensavo fosse quello a causarlo, errore mio.
Mi scuso con @StrixyRoG, pare che il suo non fosse un autogoal allora ?

La situazione comunque non cambia perché (anche se non dovuto allo scheduler allora) il problema dell'overhead esiste anche sulle RTX.

Ecco un esempio che avevo visto:
1625494243174.png
(Ci sono molti altri confronti in questo video.)

In alcuni casi, una RTX3090 produce paradossalmente meno fps di una 5600xt perché aggrava notevolmente il bottleneck della cpu.
Ma accadrebbe anche con una RTX2060 o qualsiasi altra scheda nvidia (credo esistano esempi simili anche con una 1660ti).

Per adesso il problema sembra presentarsi con processori fino al 2600 però in futuro, con la maggiore ed ormai certa parallelizzazione dei giochi che sfrutterà sempre di più le cpu, credo potrebbe estendersi anche alle cpu successive dal 3600 in avanti.
Dopo tutto warzone, per esempio, se non erro arriva già a picchi del 70-80% su un 5600x quindi, sebbene presente, non resta troppo margine di sicurezza prima di arrivare al bottleneck (sebbene quei picchi di utilizzo siano molto brevi). Forse un 3600 sarebbe già a rischio in quel titoli ?
 
Ultima modifica:
Si ho verificato e a me è disattivata di base, conviene attivarla?
si conviene attivarla.
Il vantaggio prestazionale è spesso ininfluente, ma male non fa.

Ero convinto di no per via del driver overhead che è presente anche nelle RTX. Pensavo fosse quello a causarlo, errore mio.
Mi scuso con @StrixyRoG, pare che il suo non fosse un autogoal allora ?

La situazione comunque non cambia perché (anche se non dovuto allo scheduler allora) il problema dell'overhead esiste anche sulle RTX.

Ecco un esempio che avevo visto:
(Ci sono molti altri confronti in questo video.)

In alcuni casi, una RTX3090 produce paradossalmente meno fps di una 5600xt perché aggrava notevolmente il bottleneck della cpu.
Ma accadrebbe anche con una RTX2060 o qualsiasi altra scheda nvidia (credo esistano esempi simili anche con una 1660ti).

Per adesso il problema sembra presentarsi con processori fino al 2600 però in futuro, con la maggiore ed ormai certa parallelizzazione dei giochi che sfrutterà sempre di più le cpu, credo potrebbe estendersi anche alle cpu successive dal 3600 in avanti.
Dopo tutto warzone, per esempio, se non erro arriva già a picchi del 70-80% su un 5600x quindi, sebbene presente, non resta troppo margine di sicurezza prima di arrivare al bottleneck (sebbene quei picchi di utilizzo siano molto brevi). Forse un 3600 sarebbe già a rischio in quel titoli ?
si ma chi monta una 3090 su un Ryzen 2600X ? ?
 
Non c’è nulla di fake: se fai una partita a Control ti accorgi che a 1440P con DLSS è meglio che senza.
È una ovvio che col DLSS va meglio, la scheda è più “leggera” perché renderizza a risoluzione inferiore.

Se in una salita ripida, due auto uguali, una con 3 persone a bordo e una a pieno carico, quella a pieno carico deve scalare da 4 a 3 per andare ad una velocità N, quella con 3 persone a bordo non avrà bisogno di scalare la marcia per mantenere la velocità N della prima auto. Nvidia col DLSS, però, dice che entrambe le macchine hanno mantenuto la stessa velocità N ma non dice che una delle due ha dovuto scalare la marcia.

Il DLSS esegue il render a risoluzione inferiore (tramite cose che già conosce) e poi tramite upscaling, da il contentino all’utente facendo apparire (ovviamente) più fps a schermo. E tutti felici e contenti.

Questo, a me, pare come se Nvidia stesse prendendo in giro i suoi clienti.

Siccome il RT (cosa molto bella) è un grosso fardello per la gpu e credo che un possessore di 3080/3080 Ti gli girerebbero i gioielli di famiglia nel vedere che la sua scheda, in 4K e RT attivo, faccia a malapena i 40 fps. Quindi per bilanciare a questo, hanno introdotto il DLSS che tramite IA renderizza a qualità inferiore per poi fare upscaling.

Qui si sta osannando (a mio parere) una cosa come il DLSS quando invece si dovrebbe osannare il RT.
 
Qui si sta osannando (a mio parere) una cosa come il DLSS quando invece si dovrebbe osannare il RT.

le due cose sono legate.
Il DLSS è un buon modo per godere del RT senza avere una perdita di prestazioni irritante.

Provalo e poi mi dirai...
Cyberpunk 2077 e Control sono due titoli che mi fanno dire che oggi come oggi è meglio prendersi una GeForce, anche se io non ho nessuna preferenza di marchio ed ho quasi tutto hardware AMD.
 
Pubblicità
Pubblicità
Indietro
Top