UFFICIALE Nvidia RTX Ampere (RTX 3000)

Pubblicità
ma tu hai una minima idea di cosa ci sia dietro al calcolo RT in tempo reale ? ?
Il solo fatto che oggi stiamo parlando di hardware consumer che permette un RT (almeno su illuminazione ed ombre) in real time è impressionante. fino a pochi anni fa il rendering RT era riservato a scene che richiedevano ORE ad essere elaborate. Scene statiche.
il DLSS o FSR o altro saranno sempre più otimizzati e integrati per aggiungere più RT nei giochi, non ci sarà mai un hardware adatto, perchè è basta aggiungere rimbalzi della luce nel RT e lo uccidi lo stesso, con DLSS e simili (microsoft vuole farne uno al posto del FSR, sarà stupida anche lei a sto punto dal vostro punto di vista)aiuto l'implementazione del RT che aumenta la realtà dell'immagine e mantenere un buon numero di FPS
non ci sarà scampo da questo
un RT fatto a dovere non lo noteremo in futuro, noti solo che il gioco senza fa cacare a confronto, perchè il ray tracing cerca di rendere l'immagine reale
 
il DLSS o FSR o altro saranno sempre più otimizzati e integrati per aggiungere più RT nei giochi, non ci sarà mai un hardware adatto, perchè è basta aggiungere rimbalzi della luce nel RT e lo uccidi lo stesso, con DLSS e simili (microsoft vuole farne uno al posto del FSR, sarà stupida anche lei a sto punto dal vostro punto di vista)aiuto l'implementazione del RT che aumenta la realtà dell'immagine e mantenere un buon numero di FPS
non ci sarà scampo da questo
un RT fatto a dovere non lo noteremo in futuro, noti solo che il gioco senza fa cacare a confronto, perchè il ray tracing cerca di rendere l'immagine reale
sul fatto che non ci sarà mai hardware adatto non mi sbilancio, perché il progresso è difficile da prevedere, ma certamente il ray tracing per sua natura può richiedere sempre più risorse...
Di fatto quello che noi chiamiamo RT nei giochi moderni è solo un implementazione parziale di alcuni aspetti.

Che Microsoft voglia implementare una sua versione di FSR non mi stupisce, per implementarlo magari all'interno delle DirectX. Nessuno sostiene che AMD sia stata "stupida" a farlo, anzi la mia premessa è proprio che sono contento dell'esistenza di FSR perché è "quasi" svincolato dall'hardware.
Solo che poi la si è buttata sulla solita stucchevole guerra di marchio fino ad arrivare a sostenere che il RT sia stato introdotto per vendere più schede video...
 
non mi piace la disinformazione o l'informazione incompleta.
Hai scelto il video che dimostrava un problema sul gioco più problematico del mondo e ti sei "scordato" di mostrare il video di 3 settimane fa in cui il BUG, perché di bug si trattava, era stato risolto.
Video fatto dallo stesse youtuber che dice, testuali parole, "il problema è stato risolto" (testato su tutte e quattro le modalità DLSS)


detto questo, ognuno è libero di preferire quello che vuole, e fortunatamente opzioni come RT e DLSS sono disattivabili a piacimento.
Il DLSS a volte rende più soft certe immagini, quindi ci sta che a qualcuno possa piacere meno. Personalmente trovo che RT + DLSS rendano le immagini più vere, quindi quando posso li uso.
Come detto avevo trovato quel video cercado l'input-lag del dlss, quindi poi non avevo approfondito.
Resta comunque il fatto che il dlss può alterare le immagini al punto di introdurre bug così gravi come spostare la mira su un fps.
FSR questo non lo può fare neanche volendo.

Ripeto che è semplicemente lo svantaggio di voler usare algoritmo troppo complessi.
 
Solo che poi la si è buttata sulla solita stucchevole guerra di marchio fino ad arrivare a sostenere che il RT sia stato introdotto per vendere più schede video...
Non è guerra di marchio (almeno per me) e sai benissimo che ho acquistato una RTX 3000, altrimenti a tuo dire avrei dovuto acquistare una RX 6000, è semplicemente vedere le cose come stanno.

Nvidia ha immesso sul mercato le schede con RT implementato, troppo presto. Voleva spaventare AMD e c’è riuscita, voleva sbalordire i clienti e c’è riuscita. Però è troppo, troppo pesante per la scheda fare tutto questo in tempo reale.

La mia RTX 3000 non vedrà mai il DLSS attivo, se riuscirà a tirar fuori qualcosa di decente col solo RT andrà bene, altrimenti la maggior parte delle volte andrà in raster più che volentieri.

Comunque a Control ci gioco pure io e del raster non mi lamento affatto.
--- i due messaggi sono stati uniti ---
Sembra che ti dia fastidio la parola “ upscaling “
Mi da fastidio quando un’azienda prende per i fondelli i propri clienti, è diverso.
 
Ultima modifica:
Solo che poi la si è buttata sulla solita stucchevole guerra di marchio fino ad arrivare a sostenere che il RT sia stato introdotto per vendere più schede video...
Presentazione rtx2000 minuto 13:45.
Jensen: <La rasterizzazione è incredibilmente potente ed efficiente ma abbiamo bisogno di includere il ray tracing, tuttavia, solo il ray tracing non sarebbe sufficiente [...] se non usassimo questa nuova teconologia IA che abbiamo scoperto (il DLSS)>
Minuto 25:45 Jensen: < abbiamo questi nuovi TensorCores che processano l'IA velocissimamente >

Ma in realtà i tensore cores erano già un requisito per competere nel campo dell'intelligenza artificiale e nelle applicazioni professionali ed è per quello che furono sviluppati, non certo per farci girare il DLSS.

- Quindi prima svilupparono i tensor cores, necessari per poter competere nel campo professionale ma inutili per il gaming.
- Poi introdussero il DLSS per cercare di dare un senso a quei cores inutili per il gaming che occupavano il 20/30% del die.
- Poi introdussero il Ray Tracing come una teconologia rivoluzionaria per giustificare l'aumento di prezzo delle schede reso necessario a mantenere i margini di guadagno invariati nonostante il costo di produzione aumentasse a causa dell'aumento della superficie dei chip (come detto serviva spazio per i tensor cores che occupavano più di 1/5 dello spazio).


Ricordiamoci che una 2080ti alla fine fu proposta a quasi il doppio del prezzo di una 1080ti, ma tutte le schede costarono di più rispetto a prima e l'aumento di prezzo tentarono di giustificarlo proprio con il fatto che la generazione Pascal andava molto peggio in ray tracing rispetto a Touring:
1625603264710.webp

Quindi si, il ray tracing venne spinto così tanto per vendere delle schede composte per il 20-30% di cores non ottimizzati per il gaming e riuscire a venderle pure a prezzi maggiori rispetto alla generazione precedente.

Senza DLSS un quinto del chip sarebbe quasi inutilizzato in gaming.
Senza la "rivoluzione" del ray tracing non avrebbero potuto giustificare il necessario aumento di prezzo rispetto alla generazione precedente.

Io la vedo così ?‍♂️
 
scusate ma a me tutte queste critiche al DLSS ricorda tanto la storia della volpe e dell['uva

Per la cronaca no n è mai esistita a mioa memoria una tecnologia di upscaling che allo stesso tempo milgiorasse il framerate senza perdita qualitativa apprezzabile

Se a qualcuno sembra poco a me non pre prorprio


La mia RTX 3000 non vedrà mai il DLSS attivo, se riuscirà a tirar fuori qualcosa di decente col solo RT andrà bene, altrimenti la maggior parte delle volte andrà in raster più che volentieri.
masochismo
 
Ultima modifica:
La mia RTX 3000 non vedrà mai il DLSS attivo, se riuscirà a tirar fuori qualcosa di decente col solo RT andrà bene, altrimenti la maggior parte delle volte andrà in raster più che volentieri.
Secondo me invece ha senso se vuoi giocare in 4k ad esempio in quel caso è molto utile per non dire necessario, però è una cosa da prendere con le pinze perché essendo molto potente ha anche più possibilità di creare errori "gravi" come quello della mira spostata su warzone o di accentuare il blur dell'immagine, soprattutto durante il movimento (che spesso non si considera facendo i confronti con i fotogrammi fissi) o magari altro che non conosco.

Per la cronaca no n è mai esistita a mioa memoria una tecnologia di upscaling che allo stesso tempo milgiorasse il framerate senza perdita qualitativa apprezzabile
Si ma se il guadagno di fps (che non c'è in tutti i giochi ma solo in alcuni dove il dlss è presente) lo pago comunque perché le schede costano di più non è questo grosso vantaggio alla fine dei conti.

Una volta la fascia media era la 1070 che era stata lanciata a 380 dollari. Poi con touring la 2070 la lanciarono a 500 dollari e adesso anche la 3070 a 500dollari (prezzi di lancio).

Ok che posso usare il dlss ma pago le schede più di un quarto in più rispetto a prima (scalping a parte che non centra con il RTX))... E come se non bastasse, l'aumento di prestazioni col passaggio di architettura è diminuito.
Una volta si guadagnava anche il 70% passando da una architettura all'altra a parità di fascia di modelli. Adesso se va bene una 3070ti va il 30% in più di una 2070super in raster.... "Eeeeeh ma guarda come va bene in raytracing però !!! Il doppio rispetto a prima...." Il doppio di 20fps magari (perché effettivamente erano quelli gli fps delle 2000 in raytracing senza dlss) ?

Ci sono persone come Max che giustamente prendono il meglio del meglio appena esce e non gli importa del prezzo, basta che ci siano cose nuove da provare (se ho capito bene), e fanno bene a farlo se è quello che vogliono non critico quello eh, ma per la maggior parte della gente il rapporto prestazioni/prezzo conta e quello purtroppo è solo peggiorato dall'uscita delle schede RTX in poi.
Quindi sarà anche una rivoluzione fichissima quella delle RTX ma a me non lascia molto entusiasta a conti fatti... Poi magari sbaglio e sono io che non capisco, non dico di aver ragione a prescindere.
 
Ultima modifica:
Ragazzi mi scuso anticipatamente per l'OT. Ho aperto un thread dato che voglio cambiare la scheda video attuale passando ad una RTX. Ho le idee poco chiare al momento e quindi ogni consiglio sarebbe ben accetto..
 
Secondo me invece ha senso se vuoi giocare in 4k ad esempio in quel caso è molto utile per non dire necessario, però è una cosa da prendere con le pinze perché essendo molto potente ha anche più possibilità di creare errori "gravi" come quello della mira spostata su warzone o di accentuare il blur dell'immagine, soprattutto durante il movimento (che spesso non si considera facendo i confronti con i fotogrammi fissi) o magari altro che non conosco.


Si ma se il guadagno di fps (che non c'è in tutti i giochi ma solo in alcuni dove il dlss è presente) lo pago comunque perché le schede costano di più non è questo grosso vantaggio alla fine dei conti.

Una volta la fascia media era la 1070 che era stata lanciata a 380 dollari. Poi con touring la 2070 la lanciarono a 500 dollari e adesso anche la 3070 a 500dollari (prezzi di lancio).

Ok che posso usare il dlss ma pago le schede più di un quarto in più rispetto a prima (scalping a parte che non centra con il RTX))... E come se non bastasse, l'aumento di prestazioni col passaggio di architettura è diminuito.
Una volta si guadagnava anche il 70% passando da una architettura all'altra a parità di fascia di modelli. Adesso se va bene una 3070ti va il 30% in più di una 2070super in raster.... "Eeeeeh ma guarda come va bene in raytracing però !!! Il doppio rispetto a prima...." Il doppio di 20fps magari (perché effettivamente erano quelli gli fps delle 2000 in raytracing senza dlss) ?

Ci sono persone come Max che giustamente prendono il meglio del meglio appena esce e non gli importa del prezzo, basta che ci siano cose nuove da provare (se ho capito bene), e fanno bene a farlo se è quello che vogliono non critico quello eh, ma per la maggior parte della gente il rapporto prestazioni/prezzo conta e quello purtroppo è solo peggiorato dall'uscita delle schede RTX in poi.
Quindi sarà anche una rivoluzione fichissima quella delle RTX ma a me non lascia molto entusiasta a conti fatti... Poi magari sbaglio e sono io che non capisco, non dico di aver ragione a prescindere.
opinione tua che lascia il tempo che trova forse non ti rendi conto che il raster è finito, non lo dico io ma proprio il mecrato della grafica in todo

Le consoel, stess e offrono efetti in Rt seoppur meno pesantio ma comuqnue la tecnoliga grafica va verso quel tipo di fotorealismo

Ti dirò di più nvidia non è avanti per il ray tracing ma è avanti per un discordo di serizi a 360 gradi ed è un dato di fatto

Al livello "prestazionale il raster non ha più nulla da dare ed il RT al luvel;lo di realismo è il passo successivo che a te piaccia o meno.

Al luvello Prestazionele è stato voluto come architettura quello di priovilegiare le prestazini in RTX proprio perchè il futuro va verso quello, ed avere maggiori prestazioni sigbniifc avre schede più longeve

Si fanno pagare? assolutamente, ma a me non risulta che altri produttori vanno regalando l'hardware
 
Ultima modifica:
Ragazzi mi scuso anticipatamente per l'OT. Ho aperto un thread dato che voglio cambiare la scheda video attuale passando ad una RTX. Ho le idee poco chiare al momento e quindi ogni consiglio sarebbe ben accetto..
attualmetne non è un buon momento anche se sta per finire ( si spera) ti ho risposto di là
 
non ti rendi conto che il raster è finito
Vabbè allora non ho capito nulla perché ero convinto che il raster dovesse rimanere praticamente per sempre una solida base su cui eventualmente aggiungere alcuni effetti rtx. ?
Proverò a farmene una ragione ma finché mi fanno pagare le schede di fascia media 500 euro io continuo a protestare ?

Al luvello Prestazionele è stato voluto come architettura quello di priovilegiare le prestazini in RTX proprio perchè il futuro va verso quello, ed avere maggiori prestazioni sigbniifc avre schede più longeve
Lo dici tu che il futuro va verso quello. Moltissimi giocatori sono sicuro preferirebbero poter giocare in 2k a 144hz con una scheda da 200euro senza rtx, e sarebbe stato possibile penso.
Di sicuro lo preferirebbero tutti quelli che giocano a competitivi tipo warzone dove invece ci vogliono schede da 400euro per avere 144fps stabili...

Si fanno pagare? assolutamente, ma a me non risulta che altri produttori vanno regalando l'hardware
Eh ho capito ma non è che io voglio farmi regalare l'hardware per il ray tracing o i tensor cores che in gaming sono inutili... Io quella roba non la vorrei proprio xD

Avrei preferito che avessero continuato sulla strada della rasterizzazione pura, arrivando a fare adesso scheda di fascia media (fascia media 300 euro, non 500 come adesso) che possa fare 150fps a dettagli alti in 2k su tutti i titoli. E ci sarebbero arrivati se avessero mantenuto il passo di aumento di prestazioni che avevano prima di concentrarsi su ray tracing e intelligenza artificiale...

Aumentare la rasterizzazione del 30% in 2 anni, passando da 2070super a 3070ti è davvero triste.
Prima in 2 anni raddoppiavano gli fps o quasi a parità di prezzo.

Vabbè dai la mia l'ho detta ora la smetto di intasare questa discussione scusate se ho scritto un po' troppo ?
 
Lo dici tu che il futuro va verso quello. Moltissimi giocatori sono sicuro preferirebbero poter giocare in 2k a 144hz con una scheda da 200euro senza rtx, e sarebbe stato possibile penso.
Di sicuro lo preferirebbero tutti quelli che giocano a competitivi tipo warzone dove invece ci vogliono schede da 400euro per avere 144fps stabili...
non lo dico io ma il mecrato ornmai ogni scheda e consoel da gioco supporta effetti in RT puoi negare l'evidenza ma è cosi`

Avrei preferito che avessero continuato sulla strada della rasterizzazione pura, arrivando a fare adesso scheda di fascia media (fascia media 300 euro, non 500 come adesso) che possa fare 150fps a dettagli alti in 2k su tutti i titoli. E ci sarebbero arrivati se avessero mantenuto il passo di aumento di prestazioni che avevano prima di concentrarsi su ray tracing e intelligenza arti
E'una tua opinione condivisibiole o meno ma io mi sono stancato della grafica standardizzata fgli effetti in RT sono un passo da gingante verso il fotorealismo, e non`e che lo ha inventato nvidia, è un traguardo che è stato raggiunto che motli come fai tu non fanno che sottovalutare
per reinderizzare la prima immagine in RT c';è voluta un interom supercomputer dell'università dio osaka.

i giochi su console li fanno in RT
AMD ha scheda che ormai hanno l'RT

di raster che a te piaccia o no ce ne sarà sempre meno e su pc il RT sarà sempre maggiore delle console e maggiormente implementato è un qualcosa che non si può più fermare

Aumentare la rasterizzazione del 30% in 2 anni, passando da 2070super a 3070ti è davvero triste.

E invedce triste la ricerca cotante delgi FPS e non della qualità grafica,. le prestazioni si aumntano dove necessario, avere prestazioni inutili è come non averne affatto

Che te ne faio di 300fps se non esiste nemmeno un montior adatto a rirpodurli? o se non esiste un processore consume che non faccia da collo?

Attualmetne conm le RTX 3000 quaklsiasi gioco ion RT raggiunge i 60 fps con il DLSS è un traguardo mai raggiunto in precedenza da nessuno......a te pare poco vabbè ce ne faremo una ragione



Prima in 2 anni raddoppiavano gli fps o quasi a parità di prezzo.
scua ma il DLSS è una tencolioga che effettivamente raddoppia le perestazioni anche in raster non si sa bene cosa cerchi

Anni fa la grafica non era affatto come oggi nè gli effetti grafici ovviamente le schede potevano dare maggiore performance da una generazioen all'altra ma amn mano che avanza la qualità visiva il divario si ammortizza è una cosa ovvia

Basta prendere un gioco di 5 anni fa e uno odierno per rendersene conto la qualità grafica gli effettti grafici presenti che hanno un impatto al livello rpatico prima nemmeno esistevano, nè potevano essere implementati

Sai cosa fa un AA a 32x spacca il pixel in 32 parti diverse (non`e RT ma semplicemente un avanzamento tecnologico di cui nessuno parla che letetralmetnre massacra il framrarte a discapito della qulità visiva, che ongi singolo gioco moderno può utilizzare)
Giochi di qualche hanno fa avevano l'AA al massimo a 4x

Grazie se prima una scheda riusciva a fare x % in più oggi non è più possibile nemmeno in raster, e non`e una pecca delle vGa ma un vero traguardo della grasfica

Alcune schede e tecniche di rasterizzazione sono come già detto da @Max(IT) così ben eseguite che sono paragonabili ad effetti in RT
Questo però significa anche che i giochi sono mattoni ed il RT è la risposta per gli sviluppatori in quanto serve proprio a far fare all hardware quello che un grafico dovrebbe rimettere a posto a mano per dare un maggior realismo


Secondo me guarli le cose dal punto di vista sbalgiato

Quelloc eh voglio farti capire è che non è che la qualità grafica è aumrntata mtolo più in fretta di quello che era richiestop un tempo,
il RT non è altro che la dimostrazione non solo che il rater ha ragigunto il suo limite, ma che oggi abbimao anche l'hardware per riprodurlo (cosa fino a 5 anni fa impensabile)
 
Ultima modifica:
Presentazione rtx2000 minuto 13:45.
Jensen: <La rasterizzazione è incredibilmente potente ed efficiente ma abbiamo bisogno di includere il ray tracing, tuttavia, solo il ray tracing non sarebbe sufficiente [...] se non usassimo questa nuova teconologia IA che abbiamo scoperto (il DLSS)>
Minuto 25:45 Jensen: < abbiamo questi nuovi TensorCores che processano l'IA velocissimamente >

Ma in realtà i tensore cores erano già un requisito per competere nel campo dell'intelligenza artificiale e nelle applicazioni professionali ed è per quello che furono sviluppati, non certo per farci girare il DLSS.

- Quindi prima svilupparono i tensor cores, necessari per poter competere nel campo professionale ma inutili per il gaming.
- Poi introdussero il DLSS per cercare di dare un senso a quei cores inutili per il gaming che occupavano il 20/30% del die.
- Poi introdussero il Ray Tracing come una teconologia rivoluzionaria per giustificare l'aumento di prezzo delle schede reso necessario a mantenere i margini di guadagno invariati nonostante il costo di produzione aumentasse a causa dell'aumento della superficie dei chip (come detto serviva spazio per i tensor cores che occupavano più di 1/5 dello spazio).


Ricordiamoci che una 2080ti alla fine fu proposta a quasi il doppio del prezzo di una 1080ti, ma tutte le schede costarono di più rispetto a prima e l'aumento di prezzo tentarono di giustificarlo proprio con il fatto che la generazione Pascal andava molto peggio in ray tracing rispetto a Touring:
Visualizza allegato 411623

Quindi si, il ray tracing venne spinto così tanto per vendere delle schede composte per il 20-30% di cores non ottimizzati per il gaming e riuscire a venderle pure a prezzi maggiori rispetto alla generazione precedente.

Senza DLSS un quinto del chip sarebbe quasi inutilizzato in gaming.
Senza la "rivoluzione" del ray tracing non avrebbero potuto giustificare il necessario aumento di prezzo rispetto alla generazione precedente.

Io la vedo così ?‍♂️
Che il marketing distorca spesso il senso delle cose non è una novità, e che Jensen sia uno che neppure ascolto quando parla idem.
i TC sono stati introdotti per altre motivazioni nel architettura Turing ma poi sfruttati anche per DLSS, che ripeto per la millesima volta è totalmente cambiata da 1.0 a 2.0 al punto che gli si sarebbe potuto dare un altro nome completamente.
Nvidia non aveva alcune necessità di “giustificare” nulla: è il leader indiscusso del mercato (e basta vedere come le pur ottime 6800 non sono in realtà riuscite a scalfire la loro leadership, figurati allora con le Vega ??‍♂️) ed avrebbe potuto venderle al 30% in più senza aggiungere nulla, aumentando anche i margini di guadagno.

l’introduzione di RT andava fatta per step, e la serie 20 è stata il primo step. La serie 30 è solo il secondo, tutt’altro che perfetto e si proseguirà con il tempo. Magari la serie 40 avrà altro hw al posto dei TC (che ad Nvidia costa produrre) e sarà ancora più efficiente.

meglio questo approccio per step che fare come AMD, che non introduce una fava per contenere i costi e poi spara a 1000€ schede che usano bus a 256 bit su “vecchia” GDDR6, tanto per dirne una. Almeno ne avesse garantito disponibilità… invece ancora meno di Nvidia.
Nvidia mi ha fatto infuriare per i tagli di memoria, sia chiaro, ma almeno usa bus più grandi e GDDR6X, anche qui sperimentando per prima.
 
Vabbè allora non ho capito nulla perché ero convinto che il raster dovesse rimanere praticamente per sempre una solida base su cui eventualmente aggiungere alcuni effetti rtx. ?
Il raster non sparirà, perché renderizzare tutto in RT in real time dubito sarà mai possibile.

Proverò a farmene una ragione ma finché mi fanno pagare le schede di fascia media 500 euro io continuo a protestare ?

Perdonami eh, ma la 6700XT da 500€ non è esattamente la scheda di fascia media che hai comprato tu ? E questo senza neppure tensor core o ottimizzazioni particolari…
Ve la state prendendo con il bersaglio sbagliato, perché che la fascia media sia passata da 350/400 euro a 500/700 euro è qualcosa che con il RT non c’entra nulla.
è iniziato 4/5 anni fa, quando il mercato PC gaming era in netto declino di numeri ed Nvidia ha alzato i margini. Ed AMD ha seguito a ruota senza farsi problemi.

Lo dici tu che il futuro va verso quello. Moltissimi giocatori sono sicuro preferirebbero poter giocare in 2k a 144hz con una scheda da 200euro senza rtx, e sarebbe stato possibile penso.
Di sicuro lo preferirebbero tutti quelli che giocano a competitivi tipo warzone dove invece ci vogliono schede da 400euro per avere 144fps stabili...
Ma non si può pensare semplicemente di aggiungere 20 FPS ad ogni generazione ! Non serve a nulla ed in diverse occasioni i monitor sono già saturati…
La strada per il fotorealismo passa per altre vie, ed il RT è solo una di queste (anche sui poligoni c’è molto da fare).
Aumentare la rasterizzazione del 30% in 2 anni, passando da 2070super a 3070ti è davvero triste.
Prima in 2 anni raddoppiavano gli fps o quasi a parità di prezzo.
Prima quando si è passati da hardware molto mediocre alla concezione moderna di GPU. Adesso come prestazioni raster è normale un appiattimento, ed è qui che subentra la necessità di introdurre altro per migliorare la scena.
 
iilr aster non è che sparisce ma è ovvuio che si va semopre verso un implementazione maggiore del ray tracing, con scopo finale ovviamnete il path tracing che è pratiocamente l'obbiettivo finale della grafica

Passeranno ovviamente moltio anni perchè questo accada ma è una tappa obbluigata verso il fotorealismo e verso una svolta nel mondo del rendering grafico che non si vedeva da anni

Il putno è che alcuni utenti non ne vedono la portata o non se ne rendono conto, ma è successo anche quando si passo dal 2d al 3d esiste sempre aulcuno che critica


Per quello che riguarda il DLSS non capisco proprio le critiche il DLSS 1.0 aveva dei limiti ma che erano stai anche previsti.

Il DLSS 2.0 ha cambiato totalmente le cose, si può benissimo dire che lo stesso DLSS è uan vera rivoluzioen anche per la rasterizzazione in quanto non è mai esistito nulla che raddoppiasse letteralmente il framerate senza andare an intaccare pesanetemente sulla resa grafgica finale!

Il DLSS riesce a fare quello che fino a qualche tempo fa era impensabile.

FSR è un ottima cosa ma un arma a doppio talgio per AMD, con molta probbailità sarà usato in tutti i titoli con RT, in quanto ha un milgiroamento del framerate piuttosto alto, ma è motlo probabile che un titolo che riceva FSR riceva anche DLSS.


PS> qualcuno qualche post dietro ha parlato di minecrat e di come in minecrafrt le differenze sono tantio evidenti...

Per chi non lo sapesse Minectraft è in path tracing cioè mostra come questa tecnologia può cambiare radicalemnte la grafica generale di un gioco se applicata ad ogni cosa

Ovviamente non ci sono ancora le schede grafiche di sufficiente potenza per una cosa del genere ma già si è asrrivato a farlo in un ngioco leggero come minecraft
Lo scopo è appunto che il RT sia applicato via via semrpe su più cose e questo già sta succedendo
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top