UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Non credo sia mai stato messo in dubbio che il rendering non possa produrre delle belle immagini o immagini molto realistiche, e quella ne e' una prova... anche se non ci troviamo in condizioni limite, anzi oserei dire che siamo in condizioni ideali, dove c'e' una singola fonte di luce (spot light) ed il riflesso della luce proviene "prevalentemente" dal modello di illuminazione (Phong, GGX o altro) e dagli attributi delle superfici/materiali (fango, acqua, travesine bagnate. etc)... e gran merito va anche alla qualita' delle textures.


rdr2 e' un gioco fatto molto bene, e gli sviluppatori hanno fatto un gran lavoro per renderlo il piu' realistico possibile (riuscendoci)... ma anche per questo e' piu' "pesante" di altri, che sono piu' approssimativi.
Non c'e' nulla da fare: la qualita' si paga, sia che tu la voglia fare in RayTracing, sia che la voglia ottenere in Rendering.



Permettimi di spiegare perche', invece, questa e' una condizione limite per il raster (rendering):


L'immagine in raster risulterebbe totalmente buia, in quanto la sorgente di luce si trova all'esterno e non interviene sui poligoni (triangoli) all'interno (e in raster non c'e' interazione), quindi per la luce indiretta (diffusa dall'esterno) ci si deve "inventare" un altro punto luce (che nella realta' non esiste: c'e' solo il sole), un pannello radiante (la porta che emette luce), ma questo darebbe (o potrebbe dare) un'illuminazione innaturale alla scena, per cui (immagino) e' stato scelto di aumentare la luce ambiente per attenuare la percezione di innaturalezza.
Nell'immagine RT, invece, non devo aggiungere nulla in quanto la luce risultante all'interno e' proprio quella che deriva dal "rimbalzo" sugli oggetti esterni (per diffusione).

Sicuramente si sarebbe potuta rendere molto piu' realistca anche la scena in raster, ma credo si sia semplicemente scelto di aumentare la luce ambiente solo per evitare di perdere giorni di sviluppo, per rendere piu' realistico uno scorcio "non fondamentale" del gioco.

Se questo e' il motivo del contendere, non c'e' neanche da discutere: ti do ragione!
Pero' mi sembra di rivivere il periodo di transizione dal 2D al 3D a meta' degli anni 90 (ebbene si', sono superdAtato), quando molti continuavano a preferire la Matrox perche' sul desktop di WIndows e in 2D non aveva rivali, era economica (rispetto alle 3D) ed aveva anche l'uscita per il doppio monitor... ed i giochi in 3D erano ancora pochi.


E' questo il nodo fondamentale: perche' continuare a fare numerosi "workaround" quando finalmente adesso inizia ad essere disponibile una tecnologia in cui c'e' la possibilita' di essere realistici fin da subito?
Purtroppo questo e' ancora un periodo di transizione, in cui le due tecnologie "devono" essere presenti contemporaneamente (e questo non velocizzera' lo sviluppo dei giochi), ma da qui in avanti la cura dei dettagli sara' dedicata sempre piu' al RT e si perdera' sempre meno tempo a rendere realistica una scena in raster (tanto c'e' la versione RT).
Chissa' se un giorno verra' detto che rdr2 fu l'ultimo "colossal" dell'era raster?


Per essere un "game-centrico", la sai davvero lunga, tu ... 😁
(So bene che sei un vero appassionato che non si ferma al semplice gioco 😉)

Comunque e' prorpio cosi', ed uno dei progetti NVidia (RND, Rendering Denoise) su github, svelati e resi pubblici con la presentazione della 4090 (in precedenza era accessibile solo ad "inviti"), va proprio nella direzione del PathTracing.
Non so se gia' la 5000, ma forse la 6000 potra' essere gia' una PTX?

Spero tanto che AMD (e Intel) non si lascino cogliere impreparati... e soprattutto che AMD continui la strada intrapresa (purtroppo solo) negli ultimi 3/4 anni, prodigandosi nella ricerca/sviluppo software (dove purtroppo risulta ancora molto piu' indietro).
post completo ma mi permetto di aggiungere che il RT non può essere valutato su un singolo fotogramma, per la natura dinamica della tecnica. Su una scema statica in raster si può ottenere esattamente lo stesso effetto, quindi non è la qualità finale ad essere messa in dicussione. Dove il RT fa la differenza è sulla resa dinamica, in special modo per le ombre e per le sorgenti di luce "difficili". A seconda della scena la differenza può essere quasi non notabile oppure marcata.
Non è magia, non è una rivoluzione ma è esattamente come la luce lavora nel mondo reale (o almeno una buona approssimazione) e come tale va perseguito.
Ora AMD è colpevole di uno slow start, e non è che per difendere AMD dobbiamo arrivare a dire che il RT non serve eh 😂
Poi sono convinto che AMD su RDNA 3 punterà parecchio sul RT...
 
ed è da considerare che un monitor 4k 144hz costa circa 1000€ pure lui. Mica briscolini eh!
ma su che diagonale ? Perché francamente anche qui io continuo a ritenere inutile un 4K sotto i 32", ed un monitor da 32" sulla scrivania non ce lo vedo bene...

La gara al 4K va benissimo se è intesa per uso su TV da 50/55" o più.
Ma tutta sta "fregola da 4K", solo perché il numero è più grande di 1440P, fa parte di quella evoluzione inutile spinta dal marketing.
A 27" io non vedo vantaggi a risoluzione superiore, solo svantaggi dovuti alla maggiore potenza computazionale richiesta.

Voi avete monitor da 40" sulla scrivania ? 🤔

Da fiero e soddisfatto possessore di 3070 entro in punta di piedi in questa discussione decisamente hot con una domanda 😅

Ma ricordate l'anno scorso di questi tempi quanto costavano le gpu? E sebbene ricordo che nessuno consigliava l'acquisto perchè sovraprezzate c'è chi come me l'ha comprata uguale (€ 850 per la 3070 dopo aver venduto a € 200 la vecchia RX570).

Ho capito che questa 4090 non vi entusiasma, ma guardando questo video e da gnuranto quale sono mi pare di vedere in più giochi un bel salto di qualità in termini di resa nei confronti della 3090ti pur mantenendo i medesimi consumi a un prezzo che potrebbe pure starci. Il sito che indicano le mette rispettivamente a 1600 e 1000 euro.
Io (sempre da gnuranto) non ci vedo niente di male nel prendere la 4090 se si ha disponibilità, anzi, ECONOMICAMENTE non lo vedo diverso dal prendere una 3090 fino a qualche mese fa.
Poi, che ci siano problemi driver, alimentatori ecc sono fuori dalle mie competenze

NB: so che la 3090 per giocare non è mai stata granchè consigliata, anzi, ma correggetemi se sbaglio pure le 3080 a inizio anno stavano sulle 1200-1400 euro.
ma infatti il discorso che si è fatto per la 4090 si applicava paro paro anche alla 3090... anzi, con la 3090 pure peggio visto che lo scarto dalla 3080 era davvero modesto.
 
ma su che diagonale ? Perché francamente anche qui io continuo a ritenere inutile un 4K sotto i 32", ed un monitor da 32" sulla scrivania non ce lo vedo bene...

La gara al 4K va benissimo se è intesa per uso su TV da 50/55" o più.
Ma tutta sta "fregola da 4K", solo perché il numero è più grande di 1440P, fa parte di quella evoluzione inutile spinta dal marketing.
A 27" io non vedo vantaggi a risoluzione superiore, solo svantaggi dovuti alla maggiore potenza computazionale richiesta.

Voi avete monitor da 40" sulla scrivania ? 🤔
un 32 4k costa cosi: qui e sono 1000 cucuzze. Roba fuori di capoccia
 
Comunque dobbiamo anche vedere quello che hanno combinato con la 4080 16gb. Magari dai test potrà risultare un buon acquisto...
dai primi leak direi di no... lo scarto dalla 3090 non è molto, però dovrebbe consumare meno

assolutamente l'ho sempre detto se ti serve la scheda per scopi professionali uno dovrebbe sempre prendere la scheda più potente in commercio, senza badare a spese.
questo è un discorso completamente diverso e mi fa piacere che ci sia arrivato...
Schede con 24 GB di VRAM hanno senso proprio per questo: rendering e video editing professionale.
Però per Nvidia è più facile puntare al marketing del gaming, dove gli acquisti "sconsiderati" dagli appassionati sono più semplici.
Un professionista ci pensa due volte prima di investire e verifica la sostenibilità dell'acquisto.

Articolo molto interessante per l'uso professionale della 4090, con focus sulla fotografia digitale, lo trovate qui:


ebbene si il titolo dice tutto: scheda fantastica ma il fotografo NON dovrebbe comprarla.
Al di la delle conclusioni, è bello vedere qualche benchmark non basato sui giochini ma su applicazioni professionali, che dovrebbero essere il suo target.
Si evidenzia come per rendering di animazioni e 3D designer la scheda è una buona soluzione, ma per la fotografia digitale anche di alto livello sostanzialmente non vale l'acquisto e basta molto meno. Una 3070 da $600 non ha differenze significative ed una 3080 da $800 va pressoché uguale.

Bello vedere le cose in questa prospettiva professionale.

Per il discorso di problema di compatibilità che ha avuto anche techsaskia, qui c'è la soluzione temporanea in attesa di nuovi driver.
Praticamente bisogna impostare "prestazioni massime" in "modalità di gestione alimentazione" nel pannello di controllo Nvidia. Sembra che il problema sia la tensione troppo bassa in idle da quanto ho capito.
si, anche se qualcuno dice di avere difficoltà ad arrivarci al pannello di controllo Nvidia...
Stranissimo che succeda solo con alcune schede madre però...
 
un 32 4k costa cosi: qui e sono 1000 cucuzze. Roba fuori di capoccia
il 27" costa pure di più : LINK

ma la mia domanda non è se vale il prezzo doppio rispetto ad un buon 1440P.
la mia domanda è: tu metteresti un 34" sulla scrivania ???

la seconda domanda è : su una diagonale di 27" invece che serve avere 4K ? il numero di pixel non conta nulla, per l'occhio umano. Conta la distanza di visualizzazione ed i PPI. Servono 4K su 27" a distanza tipica da monitor ?
 
intanto non hanno provato la 4090 , ma i 522.25 si sono dimostrati un reale vantaggio sia per Ampere che per Pascal (il che è notevole), con un paio di eccezioni (tra cui Days Gone che sto giocando 🤬).


Visualizza allegato 443891
Si, ma io sono tornato sul vecchio driver perchè mi faceva schizzare letteralmente la 3090 con ventoole fuori controllo. Secondo me c'è qualcosa che non va. Tornato indietro, tutto ok
 
Si, ma io sono tornato sul vecchio driver perchè mi faceva schizzare letteralmente la 3090 con ventoole fuori controllo. Secondo me c'è qualcosa che non va. Tornato indietro, tutto ok
Prova a guardare nel pannello di controllo Nvidia se in "gestione alimentazione" hai normale o massime prestazioni. A me con massime prestazioni mi mandava sempre le ventole a palla.
 
Prova a guardare nel pannello di controllo Nvidia se in "gestione alimentazione" hai normale o massime prestazioni. A me con massime prestazioni mi mandava sempre le ventole a palla.
Eh infatti... Appena posso reinsttallo e controllo. Con il driver attuale sono su "normale". Sempre che non vada automaticamente in "massime prerstazioni" appena installo l'ultimo. Potrebbe essere dici?
 
Si, ma io sono tornato sul vecchio driver perchè mi faceva schizzare letteralmente la 3090 con ventoole fuori controllo. Secondo me c'è qualcosa che non va. Tornato indietro, tutto ok
stranissimo: io ho provato su 3070, 3060Ti e 3080 e non cambia nulla sulle temperature.
 
A me l'aggiornamento aveva 'bypassato' l'undervolt regalandomi 60w di consumo in piu... é bastato riapplicare le impostazioni.
 
Eh infatti... Appena posso reinsttallo e controllo. Con il driver attuale sono su "normale". Sempre che non vada automaticamente in "massime prerstazioni" appena installo l'ultimo. Potrebbe essere dici?
Non credo però controlla. Io come Max non ho notato cambiamenti su nessuna delle mie build (3060, 3060Ti e 3080). Neanche sull'undervolt
 
Pubblicità
Pubblicità
Indietro
Top