UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
the witcher 3 ha dei problemi nell'applicazione dell'antialiasing se non utilizzi il DLSS invece di altre opzioni fa letteralmente schifo

Ti faccio uno screen appena posso
Si è vero tranne TAAU a quanto ho visto. Credo si veda meglio del Dlss attivo, almeno il gioco all'ultimo aggiirnamento
 
È totalmente errato Crime, il ghosting entra in gioco in movimento, non con immagine statiche.
Cyberpunk 2077 ti è sufficiente vedere le ruote della moto mentre corri o anche oggetti volanti, o ancora le gambe degli npc mentre corrono, rdr2 gli uccelli ad esempio, tutto lascia una sorta di scia o ghosting chiaramente visibile.
Doom eternal, famoso per i particellari che davano fenomeni di ghosting, etc…
Questa è roba vecchia, ma rende l’idea, io purtroppo i miei video su cb2077 li ho cancellati :(
si rimettiamo i soliti video su you tube fanboy amd le prove stanno sopra sono lampanti come il sole

Fai un favore, video di HU non me li postare proprio nemmeno li guardo non li reputo proprio un sito serio quando si parla di nvidia, non valgono nemmeno il tempo di cliccarci sopra
 
Ultima modifica:
si rimettiamo i soliti video su you tube fanboy amd le prove stanno sopra sono lampanti come il sole
Dai Crime per favore...
Sto giocando a Redfall, sono riuscito a prendere un po’ di effetto ghosting attivando il dlss.
Puoi farlo anche tu, trova oggetti piccoli in movimento, non necessariamente piccoli l’importante è che siano in movimento abbastanza sostenuto.
Purtroppo questo è l'artefatto più invadente e sempre presente del DLSS, infatti cerco anche io di non attivarlo mai.
Scusate le dimensioni della PIC, ma il file è troppo grande.
 

Allegati

  • Screenshot (308).webp
    Screenshot (308).webp
    326 KB · Visualizzazioni: 26
Si sicuramente...
ti ho fatto un po`di screen
Dai Crime per favore...
Sto giocando a Redfall, sono riuscito a prendere un po’ di effetto ghosting attivando il dlss.
Puoi farlo anche tu, trova oggetti piccoli in movimento, non necessariamente piccoli l’importante è che siano in movimento abbastanza sostenuto.
Scusate le dimensioni della PIC, ma il file è troppo grande.
parli di quel gioco in cui pure il CEO di Microsoft ha dovuto fare ammenda pubblica per i milioni di problemi grafici e non che ha?



Quello dove l'altro giorno un tizio con il 7800x3d ha fatto una recensione in cui con una 4090 riusciva ad andare sotto i 20 fps?

un esempio proprio perfetto
 
parli di quel gioco in cui pure il CEO di Microsoft ha dovuto fare ammenda pubblica per i milioni di problemi grafici e non che ha?
Ma cosa c’entra??? a questo sto giocando adesso!
Qualsiasi gioco con dlss ha Ghosting, e non si discute su questo, è normale che ci sia.
Smettetela di negare davanti all’evidenza, non serve a nulla!
Apri cyberpunk, corri con la moto, gira a destra e sinistra e vedrai che scie faranno le gomme…
 
Ci vogliono più giga per avere dei tripla a moderni degni di questo nome.
Poi se qualche casa li spreca ottimizzando malissimo è un altra storia, ma la necessità c'è ! Anche ottimizzando bene, si resta stretti ormai rispetto a tutte le cose che si potrebbero fare e tocca rinunciare a qualcosa durante lo sviluppo.

W I GIGA !

La questione è che fanno comodo i "giga" in più come farebbero comodo GPU più potenti: non si possono separare le due cose. Ma in entrambi i casi, sarei il primo a giustificare un maggior utilizzo di risorse in qualsiasi ambito (memoria, computazionali...) se all'aumento delle richieste hardware corrispondessero dei miglioramenti oggettivi nella qualità della grafica ottenibile. Invece, se i giochi diventano più esigenti, ma la qualità di quello che si vede è sempre quella c'è qualcosa che non va. E in The Last of Us, a quanto pare, c'era proprio qualcosa che non andava, perchè alla riduzione della memoria richiesta non ha fatto eco una diminuzione della qualità di ciò che si vede a schermo, anzi, in certe condizioni è anche migliorato. Quindi la memoria addizionale per cosa era usata?

Ma se mi fai un confronto con due gpu differenti, che si portano 6gb di vRam di differenza, come può essere attendibile?
Hai due screen(texture massime e basse) fatti con una 4080 con l'ultima patch, poi lo paragoni con lo screen fatto su una 3080 da 10gb con le prime versioni del gioco e texture minime?
Se tu mi scrivi, ''guardate come si vedevano le texture al minimo prima della patch''.
Io posso dirti, che si vedevano in quel modo sulla 3080 perché eri fuori con la vRam, posso dirlo benissimo, gli screen questo dimostrano, dato che gli altri due di confronto son fatti con una 4080.
Ma ragazzi, non lo so, bo

Se la 3080 era fuori con la VRAM con texture al minimo e per questo motivo tutto si vedeva come se il gioco girasse su una PS1 (per me già alcuni giochi della 2 erano meglio), cosa che tra l'altro non trova conferma nella telemetria perchè nè la memoria allocata, nè quella usata si avvicinano al massimo (10GB), perchè alzando il livello delle texture le texture effettivamente miglioravano? Mettere le texture a ultra creava memoria dove non c'era? 🤨
Mi sa che nel tuo ragionamento, stavolta, c'è qualcosa da rivedere.
 
Si sicuramente...
ti posto un pò di screen ovviamente su un pannello 4k che adesso non psso usare potrebbe rendere diversamente

questo è senza antialiasing



Poi FXAA





FSR2


TAUU


DLSS


DLSS + FG


Per me la resa migliore la da il DLSS in questo caso, il TAUU tende ad impastare un pò tutto, ma prima comunque era peggio

in FXAA ci sta del rumore che aumenta tanto quando di toglie l'antialiasing è qualcosa di più de no AA sembra quasi che non vada bene qualcosa nel denosing del motore grafico
 
Ma cosa c’entra??? a questo sto giocando adesso!
Qualsiasi gioco con dlss ha Ghosting, e non si discute su questo, è normale che ci sia.
Smettetela di negare davanti all’evidenza, non serve a nulla!
Apri cyberpunk, corri con la moto, gira a destra e sinistra e vedrai che scie faranno le gomme…
no grazie dopo la sparata sulle texture non mi interessa quello che dici o credi di pensare o vedere
 
a questione è che fanno comodo i "giga" in più come farebbero comodo GPU più potenti: non si possono separare le due cose. Ma in entrambi i casi, sarei il primo a giustificare un maggior utilizzo di risorse in qualsiasi ambito (memoria, computazionali...) se all'aumento delle richieste hardware corrispondessero dei miglioramenti oggettivi nella qualità della grafica ottenibile. Invece, se i giochi diventano più esigenti, ma la qualità di quello che si vede è sempre quella c'è qualcosa che non va. E in The Last of Us, a quanto pare, c'era proprio qualcosa che non andava, perchè alla riduzione della memoria richiesta non ha fatto eco una diminuzione della qualità di ciò che si vede a schermo, anzi, in certe condizioni è anche migliorato. Quindi la memoria addizionale per cosa era usata?

@pribolo inutile che ti dica che il tuo intervento è da applausi, è quello che contiguo a ripetere da mesi, il che la dice abbastanza lunga sullo stato pietoso che stanno vivendo la maggior parte dei giochi usciti in questo periodo

Esatto ad un maggior consumo di VRAM dovrebbe coincidere un aumento grande o piccolo del realismo e della qualità grafica, ma nell'ultimo anno non è sucito praticamente nulla in grado di giustificare un tale scempio!

TLOU un gioco vecchio, lo stesso motore girava meravigliosamente su ps4 e ps4 PRO con TLOU parte 2, con texture addirittura nettamente milgiori a quelle che abbiamo visto su pc a low

Per la cronaca TLOU prima ocupava pure memoria video condivisa di sistema, anche con una 4080 ( non me ne chiedere il motivo è un mistero anche per me)

Adesso devo ricontrolare


RE4 remake un motore grafico anche lui vecchiotto come il RE engine che per la cronaca ha un contatore di VRAM rotto su tutti i giochi che usano lo stesso engine

Hogwart legacy carino ma graficamente nulla di sconvolgente, ancora fatto in UE4 rilasciato in condizioni a dir poco pietose, ancora oggi ha seri problemi in alcune zone dopo svariate patch

Graficamente non è nemmeno lui granché oltretutto ha un inizio in cui la parte tutorial va meravigliosamente bene poi inizi il gioco eeeeeee.....

Callisto protocol, qui al livello grafico qualcosina ci sta, ma poco parliamo sempre di UE4 con qualche innovazione che coinvolge il rendering dei volti, in generale però troppo poco per giustificare anche qui le condizioni con sui è stato lanciato al D1

Midnight SUN un gioco sempre in un motore vecchio (uE4) a cui è stato appicciato il ray tracing in maniera posticcia, bel gioco ma graficamente nulla di nuovo e attivare il Ray tracing singifica ancora oggi avere un grosso problema di stuttering con qualsiais scheda

Dead Space Remake qui l'ottimizzazione è OK è unod ei quei pochi giochi che al D1 non hannoa vuto grossi problemi, ma non è un graficane next gen

Dead Island 2 anche qui forse la grafica è una delle più belle, ma nulla di veramente nuovo, sempre in UE4, almeno questo non ha avuto i gravissimi problemi delgi altri


Insomma al livello pratico il nulla
 
Qui RDR 2 con e senza DLSS

Si può vedere chiaramente che quando si mette il DLSS il ghosting è cosi terribile da non poterci giocare, naturalmente viene sparato tutto al massimo senza un perchè ma ancora deve uscire un gioco in grado solo di avvicinarsi alla qualità grafica di RDR2

Da notare il consumo di memoria video, che con il DLSS attivo non raggiunge gli 8 GB di allocazione


 
Buongiorno oggi è arrivata la 4070, e devo dire che provenendo dalla 5700xt il salto è stato enorme (temperature, nessun compromesso con i settings ecc.) anche se sto temporaneamente collegato con un cavo HDMI in attesa del display Port.
Solo una cosa i colori dello schermo sembrano un po' più slavati, meno ricchi rispetto alla scheda precedente.
Devo regolare qualche impostazione?

P.s: ho preso la 4070 Eagle overclock in quanto utilizzava il connettore 8pin presa a poco più di 600€ grazie ad un coupon che mi ha inserito direttamente Edge (a c*lo).
 
ti posto un pò di screen ovviamente su un pannello 4k che adesso non psso usare potrebbe rendere diversamente

questo è senza antialiasing



Poi FXAA





FSR2


TAUU


DLSS


DLSS + FG


Per me la resa migliore la da il DLSS in questo caso, il TAUU tende ad impastare un pò tutto, ma prima comunque era peggio

in FXAA ci sta del rumore che aumenta tanto quando di toglie l'antialiasing è qualcosa di più de no AA sembra quasi che non vada bene qualcosa nel denosing del motore grafico
Ciao, grazie. Guarda oggi riprovo, ma sul mio 1600p ci credi che è al contrario?. Cioè l'immagine con DLSS si vede come la tua immagine TAUU, mentre l'immagine con TAUU mi si vede come quella tua in DLSS
--- i due messaggi sono stati uniti ---
Buongiorno oggi è arrivata la 4070, e devo dire che provenendo dalla 5700xt il salto è stato enorme (temperature, nessun compromesso con i settings ecc.) anche se sto temporaneamente collegato con un cavo HDMI in attesa del display Port.
Solo una cosa i colori dello schermo sembrano un po' più slavati, meno ricchi rispetto alla scheda precedente.
Devo regolare qualche impostazione?

P.s: ho preso la 4070 Eagle overclock in quanto utilizzava il connettore 8pin presa a poco più di 600€ grazie ad un coupon che mi ha inserito direttamente Edge (a c*lo).
Se son Slavati, possono essere vari i motivi. Il primo è l'attivazione di HDR in un pannello che non supporta HDR, oppure lo supporta tanto per dire, quindi con un basso contrasto e pochi nit di luminanza. Un altyro motivo potrebbe essre una mal regolazione RGB, ma poco probabile se hai installato i driver nvidia. Comunque la prima domanda è quale montiro usi e su che gioco hai notato la slavatura. Se è su dersktop è normale se attivi HDR. Impossibile aiutarti prima di sapere che display usi. Comunque intanto vai nel pannello controllo Nvidia , vai a "modifica risoluzione" e poi seleziona impostazioni colore Nvidia, da li in base al pannello che hai posso darti una mano. Fatto questo puoi andare sempre sul pannello nvidia a " regola impostazioe colori" e li setti a tuo piacimento, ma come ultima cosa.
 
Ultima modifica:
Buongiorno oggi è arrivata la 4070, e devo dire che provenendo dalla 5700xt il salto è stato enorme (temperature, nessun compromesso con i settings ecc.) anche se sto temporaneamente collegato con un cavo HDMI in attesa del display Port.
Solo una cosa i colori dello schermo sembrano un po' più slavati, meno ricchi rispetto alla scheda precedente.
Devo regolare qualche impostazione?

P.s: ho preso la 4070 Eagle overclock in quanto utilizzava il connettore 8pin presa a poco più di 600€ grazie ad un coupon che mi ha inserito direttamente Edge (a c*lo).
Controlla questi valori sul pannello Nvidia:
 
Pubblicità
Pubblicità
Indietro
Top