UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
ma tu hai una minima idea di cosa ci sia dietro al calcolo RT in tempo reale ? ?
Ma infatti faccio un grande plauso a Nvidia, però non era ancora ora di metterlo in commercio.

Per tutti (compreso me) è una cosa rivoluzionaria il RT però è ancora da lavorarci sopra, perché parlandoci chiaro, è stato forzatamente immesso sul mercato solo per continuare a stare sopra a AMD dal lato GPU ovviamente.

Pure il primo aereo si è staccato da terra ed è stata una cosa innovativa, ma il primo volo intercontinentale l’ha fatto decine di anni dopo.

Quindi:
• Il RT (luci e ombre) nei giochi è una cosa rivoluzionaria?
- Assolutamente si.

• Il RT andava implementato nelle GPU e nei giochi, ma soprattutto commercializzato, così presto?
- Assolutamente no.

• Il DLSS è utile?
- Solo ed esclusivamente tra un paio di anni quando le schede odierne arrancheranno molto più di adesso e gli si vorrà prolungare la vita operativa di qualche mese.

ad esempio su un horizon 4 non potrei fare tutte queste analisi, corretto?

Forza Horizon 4 non possiede nè RT e nè DLSS, è un gioco “classico”.
 
E questo per tutti i giochi?
ci sono filosofie su questo... ma in soldoni si.
Con questo setting ottieni una situazione più o meno ottimale ovunque in termini di input lag e tearing.


Se hai voglia ecco una bella lettura:

 
Per fartela breve il consiglio è di operare sui driver Nvidia (e non nel gioco) e mettere Gsync + Vsync + limitatore FPS a 2/3 FPS meno del massimo refresh del monitor (quindi su un monitor 144 Hz metti il limite a 141/142 FPS).
Esatto. Avevo letto che stare 2/3 fps sotto il limite del refresh del monitor, sia la scelta ottimale.

Sul web ci sono molte guide, specie per Fortnite, Warzone e simili, di come impostare il limite a 142 fps e non a 144 come permette il gioco.

Alcuni fanno 60/75/120/144, quindi “impossibile” impostare un valore a scelta.
 
Ma infatti faccio un grande plauso a Nvidia, però non era ancora ora di metterlo in commercio.

Per tutti (compreso me) è una cosa rivoluzionaria il RT però è ancora da lavorarci sopra, perché parlandoci chiaro, è stato forzatamente immesso sul mercato solo per continuare a stare sopra a AMD dal lato GPU ovviamente.

Pure il primo aereo si è staccato da terra ed è stata una cosa innovativa, ma il primo volo intercontinentale l’ha fatto decine di anni dopo.

Quindi:
• Il RT (luci e ombre) nei giochi è una cosa rivoluzionaria?
- Assolutamente si.

• Il RT andava implementato nelle GPU e nei giochi, ma soprattutto commercializzato, così presto?
- Assolutamente no.

• Il DLSS è utile?
- Solo ed esclusivamente tra un paio di anni quando le schede odierne arrancheranno molto più di adesso e gli si vorrà prolungare la vita operativa di qualche mese.

ma chi lo dice ???
Io mi sono goduto titoli con RT da due anni a questa parte altroché non era da commercializzare !

Control, Metro Exodus, SOTR, Cyberpunk 2077 sarebbero stati titoli peggiori senza, quindi ringrazio che Nvidia ci abbia puntato subito.
 
Certo che control è un gioco perfetto per fare i test e le valutazioni con le varie schede video... ad esempio su un horizon 4 non potrei fare tutte queste analisi, corretto? (a parte che sono due giochi totalmente diversi)
horizon 4 è un gioco in raster non ha nè RT nè DLSS
 
A me, da l’idea (è solo una supposizione eh), che non si voglia ammettere che il DLSS per garantire (in alcuni casi) fino al doppio degli fps, esegua il rendering a risoluzioni più basse (alleggerendo la scheda) e di conseguenza (ovvia) ne derivi un aumento degli stessi.

E non dite sempre che c’è confusione, perché è una cosa normale che abbassando la risoluzione di rendering, il carico sulla scheda sia più leggero e quindi sforni più fps e di qualità, perché nonostante tutta la scienza di questo mondo, impostando

DLSS Off = quindi niente IA e lasciare renderizzare la scheda a risoluzione nativa,

tutti ne conosciamo i limiti.

Per migliorare l’esperienza di gioco e rendere le immagini fluide con RT On e RT Off, fanno lavorare la scheda in quel modo. Stop.

Bisogna esporre anche i lati negativi. Su questo mondo, ogni cosa (non solo un determinato settore) ha dei lati positi e dei lati negativi.

Come detto da un utente prima di me, con i giochi basta poco per divertirsi.

Però se una persona (in generale eh) mi viene a dire che in 4K la sua scheda tiene 60 fps fissi e con DLSS ne tiene 90 fissi, io gli ripeterò sempre che con i 90 fps non sta giocando a risoluzione nativa 4K.

Ma avete letto il pezzo di articolo di Tom’s Hardware Italia che ho riportato ieri? Una 3060 che gira in maniera fluida in 4K con il DLSS. Allora chi si compra una 3080 dovrebbe essere uno senza cervello che butta via i soldi? Io due domande sul come sia possibile arrivare a questo risultato me le farei.

Sembra che ti dia fastidio la parola “ upscaling “ ma di fatto il DLSS fa ben oltre che un semplice upscaling, scritto in linguaggio Python è supportato dal cloud computing di Nvidia hai ben oltre di un semplice resize, cosa che non hai con AMD perché è indietro anni luce in ambito cloud....

Se vuoi attaccare Nvidia allora tira fuori gli argomenti come la scelta della line up ed il size della vram di alcune schede ed allora posso anche venirti incontro e darti ragione..

Ma il DLSS con il Ray tracing è proprio il cavallo di battaglia di loro ed io credo la miglior cosa che abbiano fatto in questi ultimi anni


Inviato da iPhone tramite App ufficiale di Tom\'s Hardware Italia Forum
 
Lo so cosa sono e che sono diversi.

Quello che voglio dire è che se tu fai girare un gioco in RT senza DLSS, a seconda del gioco, avresti un'esperienza di gioco più o meno irritante. Stop.

Cosa significa questo? Che Nvidia deve ancora lavorare per tirare fuori schede grafiche che facciano 120 fps col solo RT attivo.

Quando faccio i render in Ray tracing in 4K a 128 Sample con la 3090 faccio 4 fps al secondo


Inviato da iPhone tramite App ufficiale di Tom\'s Hardware Italia Forum
 
Se vuoi attaccare Nvidia allora tira fuori gli argomenti come la scelta della line up ed il size della vram di alcune schede ed allora posso anche venirti incontro e darti ragione..

esatto. Di porcherie Nvidia ne ha fatte diverse, e spazio per critiche ce ne sono tante, ma non certo queste...


Ma il DLSS con il Ray tracing è proprio il cavallo di battaglia di loro ed io credo la miglior cosa che abbiano fatto in questi ultimi anni

infatti la spinta verso il RT ed il DLSS 2.0 sono la cosa migliore che Nvidia abbia fatto negli ultimi anni. E di fatto hanno spinto la stessa AMD a migliorarsi, introducendo il RT ed FSR.
 
Usare Warzone, uno degli engine peggio riusciti dell’ultimo decennio, come metodo per dimostrarlo poi inizia davvero a farmi ridere… a prescindere dal fatto che in uno shooter competitivo ritengo abbastanza assurdo abilitare il DLSS quando c’è gente che non fa altro che mettere i dettagli al minimo, è chiaro che non si tratti di una cosa consigliabile.
Sarà uscito male ma senza dlss i proiettili vanno dove miri, col dlss attivo i proiettili vanno da altre parti.
Non mi sembra proprio il massimo per uno shooter competitivo ! ?
Inoltre motli si lamentano che le immagini diventano più offuscate e quindi è più difficile distinguere i nemici nascosti.

Sono d'accordo con te che è meglio evitarlo visto cosa comporta ma negli sparatutto competitivi servono tanti fps ed avere più fps è proprio quello che promette di fare il dlss, infatti è per quello che la gente abbassa i dettagli e se il dlss funzionasse bene in teoria dovrebbe essere meglio...
Il solo fatto che oggi stiamo parlando di hardware consumer che permette un RT (almeno su illuminazione ed ombre) in real time è impressionante.
Si, è impressionante che abbiano avuto il coraggio di mettere certi effetti così pesanti su delle schede come le 2000. Ma come si è ormai capito, gli serviva una scusa per venderle a prezzi esorbitanti rispetto alle Pascal.

sul fatto che le differenze in RT siano a volte difficili da notare è verissimo: questo perché per anni l'industria del gaming ha lavorato per "ingannare" l'occhio dell'utente facendo pensare a calcoli di luci ed ombre realistici che in realtà non avvenivano. E questo è un merito.
Infatti, che bisogno c'era di introdurre il ray tracing che è pesantissimo quando ci sono metodi di compromesso che come tu stesso dici dici sono difficili da notare come differenza ? Hanno forzato il ray tracing a tutti i costi per vendere le schede rtx anche se non ne vale la pena per gli effetti che si hanno. Fine. :)
 
Si, è impressionante che abbiano avuto il coraggio di mettere certi effetti così pesanti su delle schede come le 2000. Ma come si è ormai capito, gli serviva una scusa per venderle a prezzi esorbitanti rispetto alle Pascal.
Tomb raider e Metro Exodus li ho giocati con RT su una 2070 Super senza alcun problema.
A me sembra che stiate parlando di qualcosa che non avete davvero visto di persona...

Infatti, che bisogno c'era di introdurre il ray tracing che è pesantissimo quando ci sono metodi di compromesso che come tu stesso dici dici sono difficili da notare come differenza ? Hanno forzato il ray tracing a tutti i costi per vendere le schede rtx anche se non ne vale la pena per gli effetti che si hanno. Fine. :)
il fatto che la differenza sia difficile da notare IN ALCUNE SCENE (perché in altre è palese) non significa che non valga la pena introdurlo.
La strada per il fotorealismo è fatta di tante piccole innovazioni, ed il RT è una di queste.
Ci sono titoli dove la differenza tra RT e senza RT è palese.

Nvidia non ha forzato nulla: ha introdotto il RT con la serie 2000 e l'ha migliorato con la 3000.
AMD ha fatto una porcata con le 5700XT, schede di fatto nate già vecchie ed abbandonate in fretta, e si è trovata con la serie 6800 ad inseguire sul RT (cosa normale, non avendo acquisito esperienza passata sulla precedente). Così adesso le 6800 con RT attivo sono in imbarazzo ai livelli della serie 2000 di Nvidia.

Tra i due approcci preferisco nettamente quello di Nvidia: introduci la novità appena puoi.
 
Tra i due approcci preferisco nettamente quello di Nvidia:
Si, spingere sul raytracing evitando di implementare i metodi di compromesso che ricreavano bene i riflessi anche con la sola rasterizzazione (così da far apparire meglio la "loro" tecnologia rivoluzionaria).

Bel metodo per noi utenti, così in futuro o ti compri la scheda raytracing da 400+ euro (per giocare con fps bassissimi rispetto al prezzo) oppure giochi con una qualità da fumetti senza riflessi/obre/ecc... fatti bene.

Basta guardare lo sponsorizzatissimo Control.
Senza ray tracing i riflessi fanno totalmente schifo o neanche esistono ma non perché fosse impossibile ricrearli senza rt, non li hanno fatti bene anche se potevano per far fare più bella figura al ray tracing.
Infatti ci sono giochi più vecchi che senza raytracing hanno riflessi fatti nettamente meglio di control (sempre senza raytracing).
 
Si, spingere sul raytracing evitando di implementare i metodi di compromesso che ricreavano bene i riflessi anche con la sola rasterizzazione (così da far apparire meglio la "loro" tecnologia rivoluzionaria).

Bel metodo per noi utenti, così in futuro o ti compri la scheda raytracing da 400+ euro (per giocare con fps bassissimi rispetto al prezzo) oppure giochi con una qualità da fumetti senza riflessi/obre/ecc... fatti bene.

Basta guardare lo sponsorizzatissimo Control.
Senza ray tracing i riflessi fanno totalmente schifo o neanche esistono ma non perché fosse impossibile ricrearli senza rt, non li hanno fatti bene anche se potevano per far fare più bella figura al ray tracing.
Infatti ci sono giochi più vecchi che senza raytracing hanno riflessi fatti nettamente meglio di control (sempre senza raytracing).
perdonami ma è palese che non hai mai visto Control ed hai idee piuttosto confuse sul RT...

Quando avrai una scheda che può usare il RT su giochi degni di questo nome (Control o CP 2077 ad esempio) lo verificherai con i tuoi occhi ?‍♂️


Peraltro la "sponsorizzazione"di Control appare solo in questo thread, visto che è un gioco multipiattaforma di Remedy che non ha NULLA a che fare con Nvidia. Hanno semplicemente usato l'hardware migliore per mostrare le loro capacità, approfittando del RT per pubblicizzare il loro titolo come next gen. Nvidia ha dato risalto alla cosa visto che nel 2018 aveva appena introdotto il RT sul suo hardware e servivano titoli di lancio. Ma il gioco gira su PS4 e Xbox (e la versione Ultimate su PS5).
 
Ultima modifica:
perdonami ma è palese che non hai mai visto Control ed hai idee piuttosto confuse sul RT...

Quando avrai una scheda che può usare il RT su giochi degni di questo nome (Control o CP 2077 ad esempio) lo verificherai con i tuoi occhi ?‍♂️


Peraltro la "sponsorizzazione"di Control appare solo in questo thread, visto che è un gioco multipiattaforma di Remedy che non ha NULLA a che fare con Nvidia. Hanno semplicemente usato l'hardware migliore per mostrare le loro capacità, approfittando del RT per pubblicizzare il loro titolo come next gen. Nvidia ha dato risalto alla cosa visto che nel 2018 aveva appena introdotto il RT sul suo hardware e servivano titoli di lancio. Ma il gioco gira su PS4 e Xbox (e la versione Ultimate su PS5).
Pienamente d'accordo. Però un pò lo capisco nel senso che se non lo provi dal vivo non ti accorgi della vera differenza, anche io prima di acquistare una rtx ero un pochino scettico, poi mi sono reso conto della differenza abissale che c'è tra raster e rt e ho capito cosa significa giocare in ray tracing, se non lo provi dal vivo non te ne rendi conto.
 
Sarà uscito male ma senza dlss i proiettili vanno dove miri, col dlss attivo i proiettili vanno da altre parti.
Non mi sembra proprio il massimo per uno shooter competitivo ! ?
Inoltre motli si lamentano che le immagini diventano più offuscate e quindi è più difficile distinguere i nemici nascosti.
non mi piace la disinformazione o l'informazione incompleta.
Hai scelto il video che dimostrava un problema sul gioco più problematico del mondo e ti sei "scordato" di mostrare il video di 3 settimane fa in cui il BUG, perché di bug si trattava, era stato risolto.
Video fatto dallo stesse youtuber che dice, testuali parole, "il problema è stato risolto" (testato su tutte e quattro le modalità DLSS)


detto questo, ognuno è libero di preferire quello che vuole, e fortunatamente opzioni come RT e DLSS sono disattivabili a piacimento.
Il DLSS a volte rende più soft certe immagini, quindi ci sta che a qualcuno possa piacere meno. Personalmente trovo che RT + DLSS rendano le immagini più vere, quindi quando posso li uso.
 
Ultima modifica:
Pienamente d'accordo. Però un pò lo capisco nel senso che se non lo provi dal vivo non ti accorgi della vera differenza, anche io prima di acquistare una rtx ero un pochino scettico, poi mi sono reso conto della differenza abissale che c'è tra raster e rt e ho capito cosa significa giocare in ray tracing, se non lo provi dal vivo non te ne rendi conto.
si e guarda caso i più grandi critici di RT al mondo sono... i possessori di schede Radeon. ?
Poi magari tra 2 anni le nuove Radeon andranno meglio delle Nvidia in ray tracing, e magicamente il RT diventerà di primaria importanza.

Guarda ho sempre odiato il tifo nell'hardware. Noi dovremmo tifare solo il nostro portafoglio e puntare su chi fa innovazione. Un po' come quando gli aficionados di Intel dicevano che i core non servivano a nulla mentre AMD li introduceva sui Ryzen ed Intel restava ancorata ai suoi 4 core a millemila GHz.

Io passo da Nvidia a AMD, da Intel ad AMD, di generazione in generazione, scegliendo semplicemente il meglio (in relazione al mio budget) senza pormi neppure il problema del marchio.
 
Pubblicità
Pubblicità
Indietro
Top