UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
È in arrivo la versione overdrive di CB2077, e penso che anche Alan Wake II la sfrutterà per bene la 4090, parlo sempre di giochi moderni e non di inutili confronti con roba del 2018, ma si, in generale le console frenano l'avanzamento nella grafica, c'è bisogno di partership nVidia o di privati come Epic che sviluppino a dovere engine massicci come lo è UE5, ecco, quest'ultimo quando sarà diffuso inchioderà tutte le gpu attualmente in commercio, ad eccezione della Regina, ma c'è sempre TSR, perché spendere 1500 euro e poi giocare con il penoso upscaler, è stupendoh.
Il vero problema riguarda le cpu e l'overhead delle gpu nVidia sulla cpu, e Lovelace sembra esser ancor peggior di Ampere in riguardo al carico sulla cpu, oggi nessuna cpu tiene testa alla 4090, neanche il 7800x3d, che con i suoi vergognosi otto core costa €550, io mi vedo più in difficoltà sulla scelta della cpu che non per altro, cercherò di tamponare per fine estate con un 7800X3D fino a Zen5, dato che €550 per un otto cores non glieli do.
--- i due messaggi sono stati uniti ---

In realtà il titolo che più risulta essere indietro tecnicamente è proprio Starfield, e lo si può vedere dal trailer gameplay.
Remedy è maestra nella gestione delle luci e della fisica, cb2077 ha un livello tecnico impressionante, Starfield sembra avere assets del 2016 per non parlare delle animazioni viste nel trailer, e fidati, su questo non mi sbaglio ;)
😂
Non voglio usare il termine che ho in mente perché potrebbe risultare offensivo e non è questo lo scopo del post, ma tu sei la “vittima perfetta” del marketing delle Case 🤣
Ti hanno convinto che “serviva” la 4090 per giocare a 1440P , ti hanno fatto comprare una scheda che dovrebbe restare sugli scaffali per principio o nei PC dedicati ad altro (o quantomeno per il gaming 4K ad alto refresh rate, per chi gioca su alte diagonali), ed ora chiaramente essendo overkill per tutto, ti stanno convincendo che anche la CPU va “assolutamente cambiata”.
💶💶💶💶💶💶💶
 
Abbiamo idee completamente diverse, cb è un accozzaglia per me, un gioco iniziato a sviluppare con le dx11 poi rappezzato con le dx12 per metterci RT , facendo in parte il giochetto fatto con Control, rendere schifosa la gestione della luce in raster per mostrare come attivando RT fosse tutto spettacolare ma gestito molto male. Pozzanghere e nebbia perenne non significa fare RT.

Dimenticavo Nvidia deve far scomparire software scheduler, e rimettere quello hardware altrimenti sarà sempre peggio
Gli sviluppatori di CP2077 sono quelli di The Witcher. Gente bravissima, eccezionale nel game design ma incapace di scrivere un engine decente, e che lavora come hai detto tu “a pezzetti” (vedasi lo strazio di The Witcher Next Gen).

Ragazzi però una appunto, alla fase iniziale del lancio delle serie 4000 il DLSS3 era sciocco menzionarlo come una cosa che faceva grande differenza in quanto la situazione era che ce l'avevano due giochi. Oggi invece la situazione è molto diversa, ad ogni driver nuovo Nvidia fornisce la compatibilità DLSS3 con mucchi di giochi, attualmente ce l'hanno parecchi titoli (l'hanno implementata in quasi tutti i nuovi giochi di certo peso usciti negli ultimi tempi e se non l'hanno fatto è questione di qualche update. Hanno messo il supporto DLSS3 persino su Diablo 4) e non può più non essere preso in considerazione nella valutazione di queste schede. Nei benchmarks ci sta che si testi la forza bruta delle schede video, però chi visiona questi benchmarks e vede 40 o 50 fps in 4k, sta vedendo la situazione che molto probabilmente la scheda avrebbe DLSS OFF, ancor di più su giochi che ancora necessitano di patch. Ok, la forza bruta è importante in fase di benchmarks ma non dimentichiamoci che oggi la IA e DLSS3 è presente in tanti di quei giochi, anche menzionati nei benchmarks, che in 4k permetterebbero un framerate ben maggiore rispetto a quello con DLSS OFF che si vede nei benchmarks. Non confondete questi benchmarks dove la 4070 ti scende sotto i 60 come la situazione in cui uno andrebbe a trovarsi perchè gli basterebbe attivare il DLSS 2.0 o ancora più drasticamente il DLSS3 che il framerate gli schizza comunque ben più in alto di quelle cifre nei benchmarks. Poi ci mancherebbe, uno può pure scegliere di giocare a DLSS OFF, però se lo fa in 4k su certi giochi pesanti con una 4070ti che è una scheda che va alla grande in 4k su tanti giochi ma è pensata più per il 1440p, se le va a cercare anche un pò lui.

Oggi, con tutti questi mucchi di giochi che hanno il supporto a DLSS3, è una feature che non va più messa in un angolino, è una realtà presente in molti giochi (anche in HL, dove con una CPU limitata da aggiornare ci sparo in 1440p 130 fps e parlo di quando ancora non era stato ottimizzato "per bene", anche un paio di patch fa e senza fix vari). Facciamo attenzione quando riportiamo i benchmarks perchè appunto sono a DLSS OFF e chi gioca a DLSS OFF in 4k con una 4070ti, o il gioco è molto ben ottimizzato, ma se è pesante e mal ottimizzato, AVENDO delle feature che aumentano il framerate ma non facendolo è solo lui che se le va a cercare.

Ormai la IA è entrata a pieno titolo nel gaming, non la si può ignorare più, può piacere o non piacere ma non può più essere ignorata, va considerata quando si parla delle performance in game, basare la propria opinione su benchmarks che fanno figurare l'average framerate su giochi pesanti perchè mal ottimizzati (anche gravemente mal ottimizzati) a DLSS OFF è oggi molto limitante e anche fuorviante rispetto a quello che certe schede potrebbero fare sfruttando il DLSS e il DLSS3, che fa una grande differenza a livello di framerate.
Potenzialmente ti do ragione: Reflex + DLSS 3 potrebbero avere un bel impatto. Però non esprimo giudizi finché non lo vedo in azione su un numero significativo di titoli.

Noi in negozio le evitiamo da anni poiché procurano problemi, alle volte anche cavolate per via dei driver, ma i clienti tornano ed è stressante anche perché gli devi spiegare che non è l'hardware che gli hai venduto ad essere difettoso ma il software di AMD.
Per quanto riguarda l'esperienza personale, sia io che la mia ragazza non ci siamo mai trovati bene, purtroppo, con le gpu Ati e successivamente AMD. Nell'ultimo periodo la mia ragazza stava impazzendo con la sua ex rx580 8GB, dove i driver almeno una volta al mese gli saltavano, da quando è ritornata ( aggiungo sempre purtroppo ) a Nvidia, non ha più avuto problemi.
Corretto. Anche se per me assemblare è più un “hobby remunerato” (e manco sempre 😅) che una professione, che è ben altro, alla fine devo agire in ottica imprenditoriale. Se il 30/40% delle Radeon che installo mi richiede interventi successivi, a fronte di un 5/10% delle Nvidia (perché non è che loro siano perfetti, sia chiaro), beh ad un certo punto smetto di installarle. Non fosse altro perché un “cliente non soddisfatto” è un cliente che non si fida in futuro.
Quello che spero Skonvolt abbia capito è che non c’è nulla di personale nella mia scelta. Anzi, io Nvidia la odio profondamente come Casa.
Poi per carità ognuno scelga ciò che preferisce, ma la mia esperienza, per quanto modesta, è basata su decine di esperienze per ogni generazione, di classi diverse, ed alla fine devo trarre insegnamento da questa.
Ed occhio che io sono un fissato, che il più delle volte suggerisce ai clienti una installazione di Windows “from scratch” , tra le loro imprecazioni 😜, proprio per minimizzare i problemi.
 
E come vedi il marketing Nvidia funziona bene (vedasi Kal El che è il loro PR numero 1 😅).
Premetto che frequento il forum da un po' e nel tempo ho imparato a conoscervi e ritengo siate tutte persone straordinarie, per un motivo o per un altro, ma alcuni fra voi sono decisamente esilaranti 😂

Detto questo, ritengo che @Kal El sia palesemente in tono ironico, volutamente cinico ed estremista solo per divertirsi.

Cioè intendamoci, io la penso esattamente come lui: la 4090 ad oggi è la migliore scelta qualità/prezzo in assoluto! Considerando che la 3060 liscia oggi viene venduta ancora a 350€, quando il suo prezzo appena uscita sarebbe dovuto essere 200€, dopo qualche mese scendere a 150€ e in casi come questo che non vuole comprarla nessuno (ricordo che la 3060 liscia è la scheda infame che manco regalata) ma davvero NESSUNO, sarebbe dovuta scendere a 100€. Invece viene venduta a 3 volte e mezzo il suo reale valore 😱 La 4090, benchè costosa, viene scalperata "solo" al 50% del suo valore, al massimo al massimo al doppio, ma mai a livelli come la fascia bassa e media.

Detto questo il suo atteggiamento a me pare cinico e malinconico, di una persona che vede il mercato PC totalmente incasinato, con utenti medi impazziti che comprano a queste cifre folli senza rendersi conto, per cui lui diventa ancora più estremista...

PS - Inizialmente pensavo @Kal El stesse parodizzando @Avets col suo plateale "Rise and fall with AMD" che a me fa ancora sbellicare 🤣
 
Premetto che frequento il forum da un po' e nel tempo ho imparato a conoscervi e ritengo siate tutte persone straordinarie, per un motivo o per un altro, ma alcuni fra voi sono decisamente esilaranti 😂

Detto questo, ritengo che @Kal El sia palesemente in tono ironico, volutamente cinico ed estremista solo per divertirsi.

Cioè intendamoci, io la penso esattamente come lui: la 4090 ad oggi è la migliore scelta qualità/prezzo in assoluto! Considerando che la 3060 liscia oggi viene venduta ancora a 350€, quando il suo prezzo appena uscita sarebbe dovuto essere 200€, dopo qualche mese scendere a 150€ e in casi come questo che non vuole comprarla nessuno (ricordo che la 3060 liscia è la scheda infame che manco regalata) ma davvero NESSUNO, sarebbe dovuta scendere a 100€. Invece viene venduta a 3 volte e mezzo il suo reale valore 😱 La 4090, benchè costosa, viene scalperata "solo" al 50% del suo valore, al massimo al massimo al doppio, ma mai a livelli come la fascia bassa e media.

Detto questo il suo atteggiamento a me pare cinico e malinconico, di una persona che vede il mercato PC totalmente incasinato, con utenti medi impazziti che comprano a queste cifre folli senza rendersi conto, per cui lui diventa ancora più estremista...

PS - Inizialmente pensavo @Kal El stesse parodizzando @Avets col suo plateale "Rise and fall with AMD" che a me fa ancora sbellicare 🤣
Quando chiedi 2000 euro o poco meno PER GIOCARE, e nel bel mezzo della crisi energetica più grande della storia recente spari una scheda che PER GIOCARE può passare i 500W, beh ogni ragionamento sul rapporto prezzo/prestazioni va a farsi benedire.
Tecnicamente un bel prodotto, ma che opta per una soluzione di forza bruta sbagliato, e che risulta “conveniente” solo perché Nvidia ha prezzato il resto pure peggio.

Su Kal El temo che ti sbagli… lui ci crede davvero 😓
 
Premetto che frequento il forum da un po' e nel tempo ho imparato a conoscervi e ritengo siate tutte persone straordinarie, per un motivo o per un altro, ma alcuni fra voi sono decisamente esilaranti 😂

Detto questo, ritengo che @Kal El sia palesemente in tono ironico, volutamente cinico ed estremista solo per divertirsi.

Cioè intendamoci, io la penso esattamente come lui: la 4090 ad oggi è la migliore scelta qualità/prezzo in assoluto! Considerando che la 3060 liscia oggi viene venduta ancora a 350€, quando il suo prezzo appena uscita sarebbe dovuto essere 200€, dopo qualche mese scendere a 150€ e in casi come questo che non vuole comprarla nessuno (ricordo che la 3060 liscia è la scheda infame che manco regalata) ma davvero NESSUNO, sarebbe dovuta scendere a 100€. Invece viene venduta a 3 volte e mezzo il suo reale valore 😱 La 4090, benchè costosa, viene scalperata "solo" al 50% del suo valore, al massimo al massimo al doppio, ma mai a livelli come la fascia bassa e media.

Detto questo il suo atteggiamento a me pare cinico e malinconico, di una persona che vede il mercato PC totalmente incasinato, con utenti medi impazziti che comprano a queste cifre folli senza rendersi conto, per cui lui diventa ancora più estremista...

PS - Inizialmente pensavo @Kal El stesse parodizzando @Avets col suo plateale "Rise and fall with AMD" che a me fa ancora sbellicare 🤣
Nonostante la rtx 3060 sia una delle peggiori gpu dell'architettura Ampere ( insieme alla rtx 3050 ), è comunque una gpu che offre buone prestazioni in 1080p, grazie al dlss anche in 1440p. Oggi la si trova a 320 euro ed è un prezzo quasi onesto, secondo me dovrebbe costare 280 euro massimo ma detto ciò non è una gpu da 150 euro come dici te.

@Kal El scherza per sdrammatizzare la situazione. Lui le pensa veramente quelle cose, infatti ha comprato una rtx 4090 per giocare in 1440p, solo a pensare questa cosa mi viene da ridere. La verità è che lui può dire e pensare quello che vuole, non ce niente di male, dovremmo rispettare sempre il pensiero altrui, ma ce una sottile differenza tra dire la propria e imporre la propria idea. Se ci fai caso lui scrive frasi del genere:
"Non ti consiglio la rtx 3060ti perché non è una gpu per il 1440p".
Mentre dovrebbe scrivere:
"Non ti consiglio la rtx 3060ti perché secondo me non è una gpu per il 1440p"
Come puoi vedere la differenza è sottile ma cambia completamente la situazione poiché la prima frase è disinformazione, cosa che fa spesso e volentieri, mentre la seconda frase è solo una opinione personale e che quindi diventa automaticamente un consiglio, magari sbagliato ma dato in buona fede.
 
Nonostante la rtx 3060 sia una delle peggiori gpu dell'architettura Ampere ( insieme alla rtx 3050 ), è comunque una gpu che offre buone prestazioni in 1080p, grazie al dlss anche in 1440p. Oggi la si trova a 320 euro ed è un prezzo quasi onesto, secondo me dovrebbe costare 280 euro massimo ma detto ciò non è una gpu da 150 euro come dici te.

@Kal El scherza per sdrammatizzare la situazione. Lui le pensa veramente quelle cose, infatti ha comprato una rtx 4090 per giocare in 1440p, solo a pensare questa cosa mi viene da ridere. La verità è che lui può dire e pensare quello che vuole, non ce niente di male, dovremmo rispettare sempre il pensiero altrui, ma ce una sottile differenza tra dire la propria e imporre la propria idea. Se ci fai caso lui scrive frasi del genere:
"Non ti consiglio la rtx 3060ti perché non è una gpu per il 1440p".
Mentre dovrebbe scrivere:
"Non ti consiglio la rtx 3060ti perché secondo me non è una gpu per il 1440p"
Come puoi vedere la differenza è sottile ma cambia completamente la situazione poiché la prima frase è disinformazione, cosa che fa spesso e volentieri, mentre la seconda frase è solo una opinione personale e che quindi diventa automaticamente un consiglio, magari sbagliato ma dato in buona fede.
Ma magari avesse detto una cosa simile !
Prendendo i giochi più pesanti, può essere un idea Valida.
Ma lui ha scritto che la 3080 è una scheda da 1080P 🤦🏻‍♂️
 
Ma magari avesse detto una cosa simile !
Prendendo i giochi più pesanti, può essere un idea Valida.
Ma lui ha scritto che la 3080 è una scheda da 1080P 🤦🏻‍♂️
Non puoi capire quanto ho riso quel giorno, quando scrisse quelle cose sulla rtx 3080. Però sono proprio queste sue affermazioni a sottolineare quanto lui sia vittima del Marketing e della disinformazione del web.
Ti consiglio di recupere i suoi commenti dove spiega che lui considera la rtx 4090 una gpu per il 1440p e non per il 2160p poiché nel primo caso lui può maxxare tutto senza dlss e avere le performance che desidera mentre nel secondo caso deve scendere a compromessi tipo attivare il dlss e quindi, secondo lui, questo basterebbe per dichiarare che tale gpu non è adatta a quella risoluzione.

Sono affermazioni di un assurdo tale da doverle rileggere più di una volta perché il cervello non riesce ad elaborare e ti sembra di aver immaginato. E sarò sincero, non provo astio nei confronti di @Kal El o altri utenti che la pensano come lui, anzi provo tristezza.
 
parlo sempre di giochi moderni e non di inutili confronti con roba del 2018
Gli "inutili confronti con roba del 2018" (rdr2) mettono tutt'oggi in imbarazzo la qualità grafica dei vostri titoli moderni col vostro amato ray tracing, soprattutto se si pensa a quanto diavolo in più bisogna spenderci per avere prestazioni decenti.

Se non mi credi fatti un giro qui e dimmi quanti fps farebbe la tua 4090 per ricreare cose del genere col solo decantato ray tracing:
(ricordo che rdr2 è solo raster, zero rt)
Immagine6.png


Probabilmente meno (e di certo non molto di più) di una 5700xt (scheda vecchia di 4 anni, da 450euro all'uscita) che in 1440p qui gira sui 70fps a dettagli alti.

Ecco la tua regina 4090, un mostro di potenza e costo economico, sprecato dietro a superflue tecnologie alimentate dal marketing.
Enjoy :D
 
Non puoi capire quanto ho riso quel giorno, quando scrisse quelle cose sulla rtx 3080. Però sono proprio queste sue affermazioni a sottolineare quanto lui sia vittima del Marketing e della disinformazione del web.
Ti consiglio di recupere i suoi commenti dove spiega che lui considera la rtx 4090 una gpu per il 1440p e non per il 2160p poiché nel primo caso lui può maxxare tutto senza dlss e avere le performance che desidera mentre nel secondo caso deve scendere a compromessi tipo attivare il dlss e quindi, secondo lui, questo basterebbe per dichiarare che tale gpu non è adatta a quella risoluzione.

Sono affermazioni di un assurdo tale da doverle rileggere più di una volta perché il cervello non riesce ad elaborare e ti sembra di aver immaginato. E sarò sincero, non provo astio nei confronti di @Kal El o altri utenti che la pensano come lui, anzi provo tristezza.
Non vorrei focalizzare il discorso su di lui. Anche io non provo alcun astio, anzi tendenzialmente simpatia.
Lui rappresenta quello che è il target del marketing delle Case: utenti con molti soldi da spendere facili da convincere di avere “un esigenza”.
Detto questo, parliamo di Ampere 😉

Gli "inutili confronti con roba del 2018" (rdr2) mettono tutt'oggi in imbarazzo la qualità grafica dei vostri titoli moderni col vostro amato ray tracing, soprattutto se si pensa a quanto diavolo in più bisogna spenderci per avere prestazioni decenti.

Se non mi credi fatti un giro qui e dimmi quanti fps farebbe la tua 4090 per ricreare cose del genere col solo decantato ray tracing:
(ricordo che rdr2 è solo raster, zero rt)
Immagine6.png


Probabilmente meno (e di certo non molto di più) di una 5700xt (scheda vecchia di 4 anni, da 450euro all'uscita) che in 1440p qui gira sui 70fps a dettagli alti.

Ecco la tua regina 4090, un mostro di potenza e costo economico, sprecato dietro a superflue tecnologie alimentate dal marketing.
Enjoy :D
Guarda , RDR2 è tecnicamente un capolavoro indiscutibile, ma mettere in crisi il sistema di ombre ed illuminazione in raster è semplice (basta una scena d’interno con vista sull’uscita), quindi il tuo discorso non ha molto senso.
Si possono fare capolavori senza RT ? Senza dubbio, se hai un team così in gamba. Ma lo stesso team usando il RT farebbe ancora meglio.
 
Ma lo stesso team usando il RT farebbe ancora meglio.
Manca sempre l'analisi costi benefici nei discorsi sul rt.

Farebbe quanto meglio ? Abbastanza da giustificare la necessità di schede da 1000 euro per fare 60fps a dettagli alti in 1440p ?
Non possiamo sapere la qualità che avrebbero prodotto ovviamente, il costo però mi pare bello alto... 😬 😬 😬

(basta una scena d’interno con vista sull’uscita)
Non ne sarei così convinto. Non ho più il gioco installato quindi non posso fare prove, ma mi ricordo che nei bar la luce dalle finestre (e la vista) erano gestite bene in base al rapporto luminosità esterna/interna.

Esempio preso a caso da youtube:
1680947799325.webp

Fuori è giorno, le immagini alle finestre sono giustamente sovra esposte (dentro c'è meno luce).
C'è più luce sul pavimento verso le finestre che in basso (lontano).
Addirittura si vedono i raggi di sole che colpiscono la parete a sx.
Forse mancano le ombre degli oggetti sulla mensola a sx... però non mi pare molto.
Anzi, a guardare bene:
1680947971064.webp
Gli oggetti hanno pure i riflessi corretti rispetto alla posizione delle sorgenti luminose (finestra, porta e riflesso sul muro) 😳
 
Manca sempre l'analisi costi benefici nei discorsi sul rt.

Farebbe quanto meglio ? Abbastanza da giustificare la necessità di schede da 1000 euro per fare 60fps a dettagli alti in 1440p ?
Non possiamo sapere la qualità che avrebbero prodotto ovviamente, il costo però mi pare bello alto... 😬 😬 😬


Non ne sarei così convinto. Non ho più il gioco installato quindi non posso fare prove, ma mi ricordo che nei bar la luce dalle finestre (e la vista) erano gestite bene in base al rapporto luminosità esterna/interna.

Esempio preso a caso da youtube:
Visualizza allegato 457175

Fuori è giorno, le immagini alle finestre sono giustamente sovra esposte (dentro c'è meno luce).
C'è più luce sul pavimento verso le finestre che in basso (lontano).
Addirittura si vedono i raggi di sole che colpiscono la parete a sx.
Forse mancano le ombre degli oggetti sulla mensola a sx... però non mi pare molto.
Anzi, a guardare bene:
Visualizza allegato 457176
Gli oggetti hanno pure i riflessi corretti rispetto alla posizione delle sorgenti luminose (finestra, porta e riflesso sul muro) 😳
Le luci esterne sono totalmente bruciate… quello è un problema tipico di questo genere di illuminazione. Le ombre sono assenti o imprecise e così via…
Vero, è sempre una questione di “costi”: il RT ha un impatto pesante sulle prestazioni, e RDR2 già non era un gioco leggero all’epoca.
Ma questo non significa che sia inutile o una operazione di marketing come sostieni da sempre.
Va semplicemente realizzato con cura, non appiccicato su engine scritti con i piedi e basta.
 
Io al momento ho apprezzato molto l'implementazione del Ray tracing su Metro Exodus Enchanted edition dove ti cambia l'esperienza di gioco, nel resto dei giochi potevo farne anche a meno poiché implementato male.
 
io non capico tutto questo astio verso il Rt che è una tecnologia neutra

E' stao spiegato più volte che la rasterizzazione ha limiti, anche in termini di costi benefici, per fare una scena in raster credibile ( non lo dico io lo dic0ono esperti di grafica) serve più lavoro e probabilmente le stese risorse hardware

E' per questo che il RT è stato introdotto, per avere lo stesso risultato in termini di grafica e in termini di fotorealismo serviranno una quantità di filtri, ritocchi, ecc ecc ecc che il RT alla fine è la soluzione "milgiore", perchè la stessa immagine riprodotta con gli stessi identici dettalgi impiegherà le stesse risorse hardware ma molto meno lavoro dio sviluppo, oltre al fatto come è stato spiegato da un grafico nell'altro 3d che il rastering necessita di una base che è sempre SOGGETTIVA e non oggettiva

Poi come tutte le cose succede anche per la rasterizzazione ci sono SH che fanno un ottimo lavoro, altre un pessimo lavoro

L'ho detto anche di più arriverà un giorno in cui vedremmo RDR2 e sembrerà con grafica "vecchia" cosi come in passato altri titoloni oggi hanno una grafica ormai vetusta e al tempo ci sembrava chissà cosa.

In questo momento siamo ancora "agli albori" ossia in un periodo di transizione in cui non è ancora possibile utilizzare un unico sistema ma si è in una percorse graduale che porterà alla completa sparizione del rastering

Cosi come avviene per tutte le cose, è innovazione, uin innovazione inizialmente approdata in altri ambiti, poi arrivata anche nel mondo dei videogames in tempo reale, cosa inevitabile
 
Ultima modifica:
il Rt che è una tecnologia neutra

Sono d'accordissimo se questa è reale la valutazione che facciamo del rt: tecnologia neutra.
Alternativa al raster. Da aggiungere al raster magari (perché ricordo che il rt viene usato su una minoritaria parte di tutti gli effetti in un gioco, che per la maggior parte restano rasterizzati perché alcune cose in rt sarebbero impossibili da gestire).
Entrambi hanno vantaggi e svantaggi, nessuna tecnologia è necessariamente migliore.

Il discorso che spesso si fa invece mi pare diverso ed implica che il ray tracing sia migliore nettamente del rater e senza il ray tracing non si possa avere qualità d'immagine.
Anche se poi la differenza non è troppo notabile quando il raster non viene volutamente trascurato, anche se il suddetto rt ti ammazza gli fps.

Io me la prendo con quelle menate tipo cyberpunk in path tracing o modalità overdrive spinte dal pensiero che:
"più raytracing = più meglio immagine"
No!

Il ray tracing non è necessariamente un migliorativo di qualunque cosa ! Su questo si glissa troppo frequentemente imho.
 
Entrambi hanno vantaggi e svantaggi, nessuna tecnologia è necessariamente migliore.

E no il RT è una tecnologia migliore, oggettivamente, in quanto simula realisticamente ogni aspetto dell'illuminazione come avviene nel mondo reale cosa che la rasterizzazioni non può fare!

Se fosse cero quello che dici nel cinema nella grafica pubblicitaria e in tutti gli aspetti grafici moderni non lo utilizzerebbero!

Invece lo usano, il perché è semplice, perchè per dare un effetto davvero realistico in un immagine completamente digitale, se non si utilizza il RT sembrerebbe tutto "falso"

Quindi non ci sta dubbio che si tratta di una tecnologia nettamente migliore in senso proprio grafico

Adesso possiamo discutere sulla necessità di dare uno "standard qualitativo" univoco cosa che ancora non succede, ma è un altro discorso

Ti faccio un esmepio banale prendendo RDR 2

RDR siamo tutti d'accordo che ha una grafica molto bella, ma guardano un immagine in RDR2 ti accorgi immediatamente che si tratta di un raster, di una riproduzione digitalizzata


Ecco in un immagine in PTX se implementato bene non riesci e renderti conto
 
Pubblicità
Pubblicità
Indietro
Top