UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Premesso che io forse ormai sono vecchio e glionito rinco 😅 Però a me sempre più spesso, e da diverso tempo, ogni volta che vedo i confronti (anche ufficiali NVIDIA) tra versione raster e versione ray-tracing, a me sembra migliore la "vecchia" versione raster. Se proprio devo essere sincero, il ray-tracing a me sembra che in qualche modo snaturi la qualità della renderizzazione. A parte la follia di inserire pioggia battente persino nel deserto, o di inserire corridoio pieni di specchi inutili, pur di enfatizzare il RT, ma è proprio la qualità finale dell'immagine che mi sembra peggiorare.

Poi dal punto di vista prettamente tecnico il lavoro ingegneristico di NVIDIA per implementare il ray-tracing è stato indiscutibilmente geniale (vedi video sotto)! In ogni caso rimango dell'opinione che la potenza di calcolo impiegata per il RT sia troppo elevata(/costosa) per il risultato finale ottenuto sulla visualizzazione finale ... che come ho detto a me non fa impazzire (IMHO ovviamente)

Non è il ray tracing in sè a peggiorare talvolta l'estetica, ma la sua implementazione blanda su hardware che ancora non può gestirlo in maniera più spinta, pertanto molti giochi che abbiamo visto tendevano a mixare il raster con il ray tracing, mettendo in risalto entrambe le cose, che salta all'occhio. Se mi metti il ray tracing parziale, solo su certi effetti e mi abbassi la qualità di altre cose per gestire l'ottimizzazione del gioco, la cosa salta agli occhi. Evidentemente, soprattutto il ray tracing uscito con l'uscita delle prime schede, è stato implementato o male o con molti stratagemmi, che ti è saltato all'occhio, ancor di più con DLSS 1.0 che aveva perdite palpabili in quanto a qualità visiva per far fronte alle richieste del RT. Ma non è il ray tracing, è che tra un render statico e un render in tempo reale in un videogioco, che possano gestire gli attuali RT Core, ancor di più delle primissime RTX, non potevano gestire render di certo tipo e nemmeno adesso probabilmente, se siamo a filo filo con le serie 4000 su quanto concerne il Path Tracing e ancora dobbiamo vedere come gestiscono i giochi in UE5 che tra pochissimo inizieranno ad uscire. L'implementazione del ray tracing è a inizio corsa, ci vuole ulteriore progresso tecnologico prima che questo possa essere più massiccio e con meno stratagemmi per farlo girare sulle attuali configurazioni hardware.
 
Ultima modifica:
E no il RT è una tecnologia migliore, oggettivamente, in quanto simula realisticamente ogni aspetto dell'illuminazione come avviene nel mondo reale cosa che la rasterizzazioni non può fare!

E una scena full raster può girare su una scheda video con fps maggiori di zero, cosa che una scena in full ray tracing non può fare !

Quindi non puoi dire che è migliore in assoluto.

Se fosse cero quello che dici nel cinema nella grafica pubblicitaria e in tutti gli aspetti grafici moderni non lo utilizzerebbero!

Pubblicità e cinema non sono proprio la stessa cosa del gaming. C'è una minima differenza.
Nel cinema possono metterci giorni a produrre un fotogramma, nel gaming 0,01 secondi sono già troppi !

Come dicevo prima, vi dimenticate sempre del peso di questi effetti. Guardate ai benefici e scordate i costi.


Ecco in un immagine in PTX se implementato bene non riesci e renderti conto
Non hai messo l'immagine...
Anzi aspetta, forse l'hai messa ma deve essere ancora elaborata col vostro bellissimo rt.
Magari per la settimana prossima vediamo una preview, magari solo un paio di giorni se hai una 4090.
 
Non è il ray tracing in sè a peggiorare talvolta l'estetica, ma la sua implementazione blanda su hardware che ancora non può gestirlo in maniera più spinta, pertanto molti giochi che abbiamo visto tendevano a mixare il raster con il ray tracing, mettendo in risalto entrambe le cose, che salta all'occhio. Se mi metti il ray tracing parziale, solo su certi effetti e mi abbassi la qualità di altre cose per gestire l'ottimizzazione del gioco, la cosa salta agli occhi. Evidentemente, soprattutto il ray tracing uscito con l'uscita delle prime schede, è stato implementato o male o con molti stratagemmi, che ti è saltato all'occhio. Ma non è il ray tracing, è che tra un render statico e un render in tempo reale in un videogioco, che possano gestire gli attuali RT Core, ancor di più delle primissime RTX, non potevano gestire render di certo tipo e nemmeno adesso probabilmente, se siamo a filo filo con le serie 4000 su quanto concerne il Path Tracing. L'implementazione del ray tracing è a inizio corsa, ci vuole ulteriore progresso tecnologico prima che questo possa essere più massiccio e con meno stratagemmi per farlo girare sulle attuali configurazioni hardware.
A settembre fa 5 anni che è uscito Turing , se non hai motori grafici per fare certe cose in RT c'è poco da fare, e solo ora sta iniziando l'evoluzione di questi engine, anche Metro Exodus bello si, ma anche li è stato inizialmente sviluppato in dx11 poi portato in dx12 con modifiche all'engine per fare determinate cose, e secondo me a livello grafico si vede.
 
A settembre fa 5 anni che è uscito Turing , se non hai motori grafici per fare certe cose in RT c'è poco da fare, e solo ora sta iniziando l'evoluzione di questi engine, anche Metro Exodus bello si, ma anche li è stato inizialmente sviluppato in dx11 poi portato in dx12 con modifiche all'engine per fare determinate cose, e secondo me a livello grafico si vede.
Madonna se si vede su Metro, soprattutto su quel gioco, anche sulla Enhanced, certi scorci col ray tracing sono molto belli ma nel mezzo ci vedi texture sgranate, slavate, a bassa risoluzione e animazioni da PS3 al rilascio. Quello è un caso plateale di gioco dove si è lasciato un telaio scarno e si è puntato troppo su un ray tracing che, per essere ottimizzabile sulle prime RTX, ha avuto tanti sacrifici e stratagemmi vari. SI passa da scorci splendidi a cose ignobili da un momento all'altro.
Il ray tracing implementato nel gaming è giovane, conta anche il know how c'è da dirlo perchè in Control si è fatto un lavoro splendido, però siamo a inizio corsa, pian pianino, sviluppando maggior know how legato alla sua implementazione e la sua ottimizzazione, oltre che al progresso tecnologico dell'hardware, sarà sempre meglio rispetto ai primi giochi pensati per girare sulle prime generazioni di hardware che iniziassero a gestirlo. E' solo di dare tempo al tempo e sarà sempre meglio.
 
Ma infatti io ancora sto aspettando che lui elenchi questi titoli next gen usciti e in uscita.
Io sto aspettando Diablo 4, Baldur's Gate 3 e Star Wars: Jedi survivor, tutti giochi che devono ancora uscire quest'anno e che girerebbero anche su una gtx 1660ti 6GB senza problemi.
Attendiamo il suo elenco.
--- i due messaggi sono stati uniti ---

Il Dlss 2, nelle sue ultime versione ha raggiunto una qualità tale da essere quasi a livello del render nativo, se implementato bene può anche superare il render nativo ( esempio Control ). Il dlss3 non potrà mai raggiungere quella qualità poiché il suo scopo non è restituire un immagine renderizzata ad una risoluzione inferiore per poi fare l'upscaling ricostruito con I.A. alla risoluzione nativa del monitor, lo scopo del dlss3 è dare priorità alla performance andando ad utilizzare l'interpolazione dei frame, questo produce non solo un incremento dell'input lag ma causa anche artefatti grafici come il ghosting ecc
Quindi se io con il Dlss2 riesco a giocare in 2160p ( Quality mode ) e restare a 60fps fissi in un gioco single player, tenderò ad evitare di utilizzare il dlss3.
Io possessore di una rtx 3000, non sento la mancanza del dlss3, anzi la vedo come una mossa marketing per vendere le rtx 4000.
In teoria il Dlss3 grazie all’optical flow, crea meno artefatti del dlss2, ma spesso le due tech sono utilizzate insieme.
Non confonderla con l’interpolazione delle tv, il fine ultimo è il medesimo, ma come ci si arriva e la qualità con cui lo si fa, non c’entra nulla.
Il dlss è complesso, molto più del dlss2, e la soluzione di nVidia per ridurre l’input lag e risolvere il problema degli artefatti tipici dell’interpolazione classica, attraverso le informazioni che arrivano dall’engine e dal calcolo che fa l’optical flow accelerator, non solo sui vettori di movimento ma anche su luci, effetti particellari etc…, è una genialata.
Il famoso fsr3 di Amd non potrà mai fare questo, proprio perché privo dell’optical flow Accelerator.
Ripeto, il dlss3 è molto più complesso del dlss2 ;)
Amd il massimo che potrà ambira, sarà come la prima Pic, come sempre è anni indietro:
1680952508142.jpeg

1680952545912.jpeg

@Max(IT)
Northlight engine utilizzerà Alan Wake II.
Starfield è il solito pattume di Bethesda, ed in merito a cb2077, purtroppo il gameplay ed il gioco sono ridicoli, ma tecnicamente, soprattutto in resa grafica, è stupendo ❤️

@Lorenzo Lanas
per cui lui diventa ancora più estremista...
Ottima analisi.
Come ti muovi ti muovi, nella fascia alta, media e bassa vieni palesemente truffato, chip tagliati venduti al triplo del loro valore, quindi cosa si fa?
Si prende il prodotto che “meno ti fa sentire in colpa con te stesso”, proprio perché in base al suo prezzo di mercato, è il più vicino possibile a ciò che realmente vale il prodotto, e parlo proprio della 4090, Ad-102 e performance che stanno su un altro livello, se poi calcoli che ho preso uno dei migliori modelli e pagato meno delle FE, ancor meglio.
L’anno scorso ho combattuto un anno per riuscire a prendere una 3080FE ad MSRP ed alla fine ci sono riuscito, io non riuscirei mai a pagare qualcosa di più del suo reale valore, come chi ha comprato 3080 ad €1200, o 3070 ad €900, mi sentirei una persona ingenua, e non lo sono assolutamente, è come se offendessero la mia intelligenza.
Altrimenti poi ti ritrovi come MOLTI utenti qui, che hanno strapagato il loro Hardware, hanno aspettative alte da esso, proprio perché è stato strapagato, ma che in teoria sono consapevoli che ormai quel pezzo di silicio è diventato un ferro vecchio, strapagato si, ma sempre un ferro vecchio è diventato:(

@Max(IT)
tu sei la “vittima perfetta” del marketing delle Case 🤣
Tu hai comprato la peggio Gpu NVIDIA dal rapporto prezzo/prestazioni, ed io sarei l’ALLOCCO influenzato dal marketing nVidia 🤣🤣🤣

@Skonvolt2015

Optical flow accelerator è presente anche su Turing ed Ampere se è per questo, ma è “lento” in confronto alle 4000, poi lasciamo stare Amd per favore, che fino ad rdna4(semmai ci arriverà) non ne voglio neanche sentir parlare, a me aziende come quest’ultima urtano il sistema nervoso, la loro politica negli ultimi due anni è un qualcosa di mai visto visto prima, ecco, se vuoi triggerarmi, ti è sufficiente scrivere Amd, ed a me viene subito in risalto che, nonostante la loro incompetenza hanno la faccia tosta di vendere i loro prodotti a pari prezzo della concorrenza, è un Oligopolio, è un cartello? Non lo so, ma, è vergognoso.

@Dradkol
"Non ti consiglio la rtx 3060ti perché secondo me non è una gpu per il 1440p"
Sei di coccio è???
La 3060Ti in 1440p non regge nessun gioco recente, salvo grossi compromessi, e poi con 8Gb di Vram dove vuoi andare nel 2023.
Ma poi non lo vedi tu scusa? avendo una 3080, negli ultimi giochi boccheggia a 1440p, almeno io che non ho paraocchi, vedevo ciò è, poi non so te ;)
 
Ultima modifica:
Come dicevo prima, vi dimenticate sempre del peso di questi effetti. Guardate ai benefici e scordate i costi.


Ma ti stiamo dicendo tutti che i costi sono inferiori!

I costi non si fanno coem fai tu prendi una scena in raster "bella" e dici "è bella"

I costi si calcolanop in questo modo

La scena riprodotta in RTX o in PTX riprodotta in rater IDENTICA quante risorse impegna?


Allora se prendiamo 2 scene identiche, una fatta in RTX/PTX lá tra fatta in rasterizzazione costerà più quella in rasterizzazione, sia in termini di risorse hardware per riprodurla che di LAVORO

E questo che vi è difficile capire e che spiegava benissimo brut pitt che in grafica ci lavora

Quando fai un ombra in raster per farla venire come è fatta in RTX la devi ritoccare con dei filtri e alla fine costerà uguale in termini di risorse hardware o forse anche di più e molto più "lavoro" in termini di programmazione.

Perchè adesso vediamo che li effetti in RT persano?

Proprio perché la rasterizzazione non riesce a dare la stessa qualità ma una inferiore, oltre a non riuscire a dare la stessa qualità dell'immagine proprio per dei limiti "tecnici" se vi fose un modo epr dare la stessa "qualità" restituita dall'effetto con una serie di "filtri" questi andrebbero a pesare di più alla fine dello stesso RTX/PTX
 
Ultima modifica:
In teoria il Dlss3 grazie all’optical flow, crea meno artefatti del dlss2, ma spesso le due tech sono utilizzate insieme.
Non confonderla con l’interpolazione delle tv, il fine ultimo è il medesimo, ma come ci si arriva e la qualità con cui lo si fa, non c’entra nulla.
Il dlss è complesso, molto più del dlss2, e la soluzione di nVidia per ridurre l’input lag e risolvere il problema degli artefatti tipici dell’interpolazione classica, attraverso le informazioni che arrivano dall’engine e dal calcolo che fa l’optical flow accelerator, non solo sui vettori di movimento ma anche su luci, effetti particellari etc…, è una genialata.
Il famoso fsr3 di Amd non potrà mai fare questo, proprio perché privo dell’optical flow Accelerator.
Ripeto, il dlss3 è molto più complesso del dlss2 ;)
Amd il massimo che potrà ambira, sarà come la prima Pic, come sempre è anni indietro:
Visualizza allegato 457199

Visualizza allegato 457200

@Max(IT)
Northlight engine utilizzerà Alan Wake II.
Starfield è il solito pattume di Bethesda, ed in merito a cb2077, purtroppo il gameplay ed il gioco sono ridicoli, ma tecnicamente, soprattutto in resa grafica, è stupendo ❤️
Scusa ma prima dovresti informarti un pochetto, optical flow accellerator non è creato da nvidia, è una vita che c'è e AMD ne parlava già nel 2013, peccato che non c'è più il pdf ma su google c'è ancora il link


GPU Processing for Video Enhancement and Stereo Conversion​

1680953773980.webp
amd.com
http://developer.amd.com › 2013/06 › 2600_final

PDF

Optical flow computation time may constitute 50..80% of the total processing time. ▫ High complexity. ▫ High potential for massive parallelization.
 
Sono d'accordissimo se questa è reale la valutazione che facciamo del rt: tecnologia neutra.
Alternativa al raster. Da aggiungere al raster magari (perché ricordo che il rt viene usato su una minoritaria parte di tutti gli effetti in un gioco, che per la maggior parte restano rasterizzati perché alcune cose in rt sarebbero impossibili da gestire).
Entrambi hanno vantaggi e svantaggi, nessuna tecnologia è necessariamente migliore.

Il discorso che spesso si fa invece mi pare diverso ed implica che il ray tracing sia migliore nettamente del rater e senza il ray tracing non si possa avere qualità d'immagine.
Anche se poi la differenza non è troppo notabile quando il raster non viene volutamente trascurato, anche se il suddetto rt ti ammazza gli fps.

Io me la prendo con quelle menate tipo cyberpunk in path tracing o modalità overdrive spinte dal pensiero che:
"più raytracing = più meglio immagine"
No!

Il ray tracing non è necessariamente un migliorativo di qualunque cosa ! Su questo si glissa troppo frequentemente imho.
Beh certo. Avendo un impatto sulle prestazioni non indifferente, il RT non è meglio a prescindere. È un valore aggiunto se implementato bene

Proprio un bel gioco quello. Molto sottovalutato
 
a.jpgb.jpgsteamuserimages-a.akamaihd.jpg

Guardate i piedi della protagonista, guardate l'eccelso effetto dell'AO + ombre morbide sotto di questi, questo è l'effetto dell'AO in illuminazione globale, questa cosa qui, vederla in un videogioco e parliamo di un videogioco tra l'altro uscito tra i primi ad implementare il ray tracing con le serie 2000, è una cosa che mi fa cadere la mascella. Queste cose le vedi nei render statici, in un videogioco era una cosa non pensabile, il senso di peso e di interazione degli oggetti di gioco nella scena è splendido, questa cosa fino a prima dell'uscita del ray tracing era cosa da render statici. Un Ray tracing implementato bene, con know how e cognizione di causa, già adesso può fare la differenza, quando ci saranno hardware che lo gestiscono sempre meglio e il know how sarà sempre maggiore, perchè come normale che sia il know how generale migliora man mano, perchè generalmente a fine corsa delle console si sfrutta quell'hardware al massimo possibile rispetto all'inizio che vengono lanciate? Perchè man mano i DEV aquisiscono know how su come sfruttare quell'hardware al meglio, stessa cosa vale adesso per il ray tracing e, quando avremo un buon connubio tra know how radicato e potenza hardware, le cosa saranno assai meglio rispetto ai primi giochi pensati per le serie 2000 che dovevano girare con DLSS 1.0 tra l'altro per non distruggere le prestazioni delle top di gamma del periodo, con i DEV che si sono trovati per le prime volte a implementarlo in un videogioco.

Lasciate perdere quei giochi dove il RT viene implementato per marketing o in maniera blanda blanda che si vede poco o peggiora pure la situazione, oltre che il framerate, in quei casi posso pure disattivarlo e preferisco le performance, nei giochi dove il ray tracing è fatto bene fa invece una grossa differenza già adesso.
 
Ultima modifica:
Ma ti stiamo dicendo tutti che i costi sono inferiori!

I costi non si fanno coem fai tu prendi una scena in raster "bella" e dici "è bella"

I costi si calcolanop in questo modo

La scena riprodotta in RTX o in PTX riprodotta in rater IDENTICA quante risorse impegna?


Allora se prendiamo 2 scene identiche, una fatta in RTX/PTX lá tra fatta in rasterizzazione costerà più quella in rasterizzazione, sia in termini di risorse hardware per riprodurla che di LAVORO

E questo che vi è difficile capire e che spiegava benissimo brut pitt che in grafica ci lavora

Quando fai un ombra in raster per farla venire come è fatta in RTX la devi ritoccare con dei filtri e alla fine costerà uguale in termini di risorse hardware o forse anche di più e molto più "lavoro" in termini di programmazione.

Perchè adesso vediamo che li effetti in RT persano?

Proprio perché la rasterizzazione non riesce a dare la stessa qualità ma una inferiore, oltre a non riuscire a dare la stessa qualità dell'immagine proprio per dei limiti "tecnici" se vi fose un modo epr dare la stessa "qualità" restituita dall'effetto con una serie di "filtri" questi andrebbero a pesare di più alla fine dello stesso RTX/PTX
Cioè in pratica stai dicendo che una scena fatta col rt pesa meno che una fatta in raster... Bah non mi pare proprio la realtà.

Quando si fanno fare al RT certi effetti togliendoli al raster come accade adesso, gli fps si prendono una bastonata.
Da come la metti te gli fps dovrebbero aumentare se il rt fosse davvero più efficiente.
 
In teoria il Dlss3 grazie all’optical flow, crea meno artefatti del dlss2, ma spesso le due tech sono utilizzate insieme.
Non confonderla con l’interpolazione delle tv, il fine ultimo è il medesimo, ma come ci si arriva e la qualità con cui lo si fa, non c’entra nulla.
Il dlss è complesso, molto più del dlss2, e la soluzione di nVidia per ridurre l’input lag e risolvere il problema degli artefatti tipici dell’interpolazione classica, attraverso le informazioni che arrivano dall’engine e dal calcolo che fa l’optical flow accelerator, non solo sui vettori di movimento ma anche su luci, effetti particellari etc…, è una genialata.
Il famoso fsr3 di Amd non potrà mai fare questo, proprio perché privo dell’optical flow Accelerator.
Ripeto, il dlss3 è molto più complesso del dlss2 ;)
Amd il massimo che potrà ambira, sarà come la prima Pic, come sempre è anni indietro:
Visualizza allegato 457199

Visualizza allegato 457200

@Max(IT)
Northlight engine utilizzerà Alan Wake II.
Starfield è il solito pattume di Bethesda, ed in merito a cb2077, purtroppo il gameplay ed il gioco sono ridicoli, ma tecnicamente, soprattutto in resa grafica, è stupendo ❤️

@Lorenzo Lanas

Ottima analisi.
Come ti muovi ti muovi, nella fascia alta, media e bassa vieni palesemente truffato, chip tagliati venduti al triplo del loro valore, quindi cosa si fa?
Si prende il prodotto che “meno ti fa sentire in colpa con te stesso”, proprio perché in base al suo prezzo di mercato, è il più vicino possibile a ciò che realmente vale il prodotto, e parlo proprio della 4090, Ad-102 e performance che stanno su un altro livello, se poi calcoli che ho preso uno dei migliori modelli e pagato meno delle FE, ancor meglio.
L’anno scorso ho combattuto un anno per riuscire a prendere una 3080FE ad MSRP ed alla fine ci sono riuscito, io non riuscirei mai a pagare qualcosa di più del suo reale valore, come chi ha comprato 3080 ad €1200, o 3070 ad €900, mi sentirei una persona ingenua, e non lo sono assolutamente, è come se offendessero la mia intelligenza.
Altrimenti poi ti ritrovi come MOLTI utenti qui, che hanno strapagato il loro Hardware, hanno aspettative alte da esso, proprio perché è stato strapagato, ma che in teoria sono consapevoli che ormai quel pezzo di silicio è diventato un ferro vecchio, strapagato si, ma sempre un ferro vecchio è diventato:(

@Max(IT)

Tu hai comprato la peggio Gpu NVIDIA dal rapporto prezzo/prestazioni, ed io sarei l’ALLOCCO influenzato dal marketing nVidia 🤣🤣🤣

@Skonvolt2015

Optical flow accelerator è presente anche su Turing ed Ampere se è per questo, ma è “lento” in confronto alle 4000, poi lasciamo stare Amd per favore, che fino ad rdna4(semmai ci arriverà) non ne voglio neanche sentir parlare, a me aziende come quest’ultima urtano il sistema nervoso, la loro politica negli ultimi due anni è un qualcosa di mai visto visto prima, ecco, se vuoi triggerarmi, ti è sufficiente scrivere Amd, ed a me viene subito in risalto che, nonostante la loro incompetenza hanno la faccia tosta di vendere i loro prodotti a pari prezzo della concorrenza, è un Oligopolio, è un cartello? Non lo so, ma, è vergognoso.

@Dradkol

Sei di coccio è???
La 3060Ti in 1440p non regge nessun gioco recente, salvo grossi compromessi, e poi con 8Gb di Vram dove vuoi andare nel 2023.
Ma poi non lo vedi tu scusa? avendo una 3080, negli ultimi giochi boccheggia a 1440p, almeno io che non ho paraocchi, vedevo ciò è, poi non so te ;)
Come dicevo, ripeti a pappagallo le slide di marketing propinate da Nvidia senza neppure capire di che si tratta, tutto esaltato dal Giacchetta 😂
Io ho preso una 4080 a 1090€: tanti, troppi, ma è una scheda che arriva a malapena a 300W con un netto miglioramento delle prestazioni. Scheda inutile ma sensata.
Tu hai preso una 4090 per il 1440P ed ora ti trovi a dover inutilmente cambiare CPU per evitare stuttering 😂
Ed anche li fai un discorso che dimostra la tua cultura nata su YouTube, definendo scarsi gli 8 core del 7800X3D, l’unica cpu sensata che AMD ha prodotto. Per info 8 core per gaming sono pure abbondanti e le cpu ridicole (per giocare) sono le altre.

Infine spari l’ennesima inesattezza: mio figlio sta giocando ad Atomic Heart con una 3060Ti perfettamente, senza nessun compromesso. Come ampiamente dimostrato, non sei che una vittima del marketing
 
Sei di coccio è???
La 3060Ti in 1440p non regge nessun gioco recente, salvo grossi compromessi, e poi con 8Gb di Vram dove vuoi andare nel 2023.
Ma poi non lo vedi tu scusa? avendo una 3080, negli ultimi giochi boccheggia a 1440p, almeno io che non ho paraocchi, vedevo ciò è, poi non so te ;)
Ma boccheggia dove che gioco tutto al max sempre ?! Alle volte mi impressiono ancora dalla potenza della mia gpu in 1440p e spesso gioco anche in 2160p.
Sei senza speranze 🥰
 
Visualizza allegato 457204Visualizza allegato 457205Visualizza allegato 457206

Guardate i piedi della protagonista, guardate l'eccelso effetto dell'AO + ombre morbide sotto di questi, questo è l'effetto dell'AO in illuminazione globale, questa cosa qui, vederla in un videogioco e parliamo di un videogioco tra l'altro uscito tra i primi ad implementare il ray tracing con le serie 2000, è una cosa che mi fa cadere la mascella. Queste cose le vedi nei render statici, in un videogioco era una cosa non pensabile, il senso di peso e di interazione degli oggetti di gioco nella scena è splendido, questa cosa fino a prima dell'uscita del ray tracing era cosa da render statici. Un Ray tracing implementato bene, con know how e cognizione di causa, già adesso può fare la differenza, quando ci saranno hardware che lo gestiscono sempre meglio e il know how sarà sempre maggiore, perchè come normale che sia il know how generale migliora man mano, perchè generalmente a fine corsa delle console si sfrutta quell'hardware al massimo possibile rispetto all'inizio che vengono lanciate? Perchè man mano i DEV aquisiscono know how su come sfruttare quell'hardware al meglio, stessa cosa vale adesso per il ray tracing e, quando avremo un buon connubio tra know how radicato e potenza hardware, le cosa saranno assai meglio rispetto ai primi giochi pensati per le serie 2000 che dovevano girare con DLSS 1.0 tra l'altro per non distruggere le prestazioni delle top di gamma del periodo, con i DEV che si sono trovati per le prime volte a implementarlo in un videogioco.
Ma Control è un capolavoro, mica solo per il RT, implementato benissimo nonostante fosse agli inizi. Il gameplay è geniale.

Ma boccheggia dove che gioco tutto al max sempre ?! Alle volte mi impressiono ancora dalla potenza della mia gpu in 1440p e spesso gioco anche in 2160p.
Sei senza speranze 🥰
Una 3080 boccheggia a 1440P ? Siamo al delirio… 🤦🏻‍♂️
@Lorenzo Lanas , vedi che sbagliavi? Purtroppo non trolla.
 
Visualizza allegato 457204Visualizza allegato 457205Visualizza allegato 457206

Guardate i piedi della protagonista, guardate l'eccelso effetto dell'AO + ombre morbide sotto di questi, questo è l'effetto dell'AO in illuminazione globale, questa cosa qui, vederla in un videogioco e parliamo di un videogioco tra l'altro uscito tra i primi ad implementare il ray tracing con le serie 2000, è una cosa che mi fa cadere la mascella. Queste cose le vedi nei render statici, in un videogioco era una cosa non pensabile, il senso di peso e di interazione degli oggetti di gioco nella scena è splendido, questa cosa fino a prima dell'uscita del ray tracing era cosa da render statici. Un Ray tracing implementato bene, con know how e cognizione di causa, già adesso può fare la differenza, quando ci saranno hardware che lo gestiscono sempre meglio e il know how sarà sempre maggiore, perchè come normale che sia il know how generale migliora man mano, perchè generalmente a fine corsa delle console si sfrutta quell'hardware al massimo possibile rispetto all'inizio che vengono lanciate? Perchè man mano i DEV aquisiscono know how su come sfruttare quell'hardware al meglio, stessa cosa vale adesso per il ray tracing e, quando avremo un buon connubio tra know how radicato e potenza hardware, le cosa saranno assai meglio rispetto ai primi giochi pensati per le serie 2000 che dovevano girare con DLSS 1.0 tra l'altro per non distruggere le prestazioni delle top di gamma del periodo, con i DEV che si sono trovati per le prime volte a implementarlo in un videogioco.
I Remedy sono fantastici con la gestione delle luci in generale, e Sam Lake è unico.
Mi aspetto grandi cose da Alan Wake grazie al Rt, e spero che sfruttino per bene tutte le ultime tech.
Sento già gli utenti dire che il gioco è mal ottimizzato solamente perché girerà male sulle 2000/3000, ma ragazzi, il Rt è questo, altrimenti non avrebbe senso fare gpu di nuova generazione, se poi, dobbiamo limitare gli effetti in Rt, perché siamo ancorati ancora alla serie 2000/3000, cosa devo dirvi.
Non so se avete letto in cb2077, che la Overdrive Mode, richiede 635 ray per pixel, Battlefield V ne richiedeva solamente 39 ray per pixel, e poi parliamo di ”Mal Ottimizzazione” , è questo il trend per chi compra una RTX, vuoi sempre godere del Rt, bisogna aggiornare ad ogni generazione, perché la complessità di calcolo dato che tende all’infinito, aumenterà in base alla potenza delle gpu di nuova generazione;)
#FateveneUnaRagione
 
Pubblicità
Pubblicità
Indietro
Top