UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Se son Slavati, possono essere vari i motivi. Il primo è l'attivazione di HDR in un pannello che non supporta HDR, oppure lo supporta tanto per dire, quindi con un basso contrasto e pochi nit di luminanza. Un altyro motivo potrebbe essre una mal regolazione RGB, ma poco probabile se hai installato i driver nvidia. Comunque la prima domanda è quale montiro usi e su che gioco hai notato la slavatura. Se è su dersktop è normale se attivi HDR. Impossibile aiutarti prima di sapere che display usi. Comunque intanto vai nel pannello controllo Nvidia , vai a "modifica risoluzione" e poi seleziona impostazioni colore Nvidia, da li in base al pannello che hai posso darti una mano. Fatto questo puoi andare sempre sul pannello nvidia a " regola impostazioe colori" e li setti a tuo piacimento, ma come ultima cosa.

Ho provveduto ad aggiornare in bio il mio hardware, in ogni caso al momento ho un Aoc 23.8" led ips 24g2u/bk in attesa di passare ad un monitor 2k in futuro. In una discussione aperta sul forum mi dicevano non esserci problemi di incompatibilità con questo schermo.


Controlla questi valori sul pannello Nvidia:

Se non erro queste impostazioni erano bloccate e non mi faceva modificare nulla.
 
@pribolo inutile che ti dica che il tuo intervento è da applausi, è quello che contiguo a ripetere da mesi, il che la dice abbastanza lunga sullo stato pietoso che stanno vivendo la maggior parte dei giochi usciti in questo periodo

Esatto ad un maggior consumo di VRAM dovrebbe coincidere un aumento grande o piccolo del realismo e della qualità grafica, ma nell'ultimo anno non è sucito praticamente nulla in grado di giustificare un tale scempio!

TLOU un gioco vecchio, lo stesso motore girava meravigliosamente su ps4 e ps4 PRO con TLOU parte 2, con texture addirittura nettamente milgiori a quelle che abbiamo visto su pc a low

Per la cronaca TLOU prima ocupava pure memoria video condivisa di sistema, anche con una 4080 ( non me ne chiedere il motivo è un mistero anche per me)

Adesso devo ricontrolare


RE4 remake un motore grafico anche lui vecchiotto come il RE engine che per la cronaca ha un contatore di VRAM rotto su tutti i giochi che usano lo stesso engine

Hogwart legacy carino ma graficamente nulla di sconvolgente, ancora fatto in UE4 rilasciato in condizioni a dir poco pietose, ancora oggi ha seri problemi in alcune zone dopo svariate patch

Graficamente non è nemmeno lui granché oltretutto ha un inizio in cui la parte tutorial va meravigliosamente bene poi inizi il gioco eeeeeee.....

Callisto protocol, qui al livello grafico qualcosina ci sta, ma poco parliamo sempre di UE4 con qualche innovazione che coinvolge il rendering dei volti, in generale però troppo poco per giustificare anche qui le condizioni con sui è stato lanciato al D1

Midnight SUN un gioco sempre in un motore vecchio (uE4) a cui è stato appicciato il ray tracing in maniera posticcia, bel gioco ma graficamente nulla di nuovo e attivare il Ray tracing singifica ancora oggi avere un grosso problema di stuttering con qualsiais scheda

Dead Space Remake qui l'ottimizzazione è OK è unod ei quei pochi giochi che al D1 non hannoa vuto grossi problemi, ma non è un graficane next gen

Dead Island 2 anche qui forse la grafica è una delle più belle, ma nulla di veramente nuovo, sempre in UE4, almeno questo non ha avuto i gravissimi problemi delgi altri


Insomma al livello pratico il nulla
Come avrai fatto caso anche te ormai da mesi, tutte le sue tesi si basano su giochi letteralmente rotti.
Parla di vram ?! Utilizza Hogwards Legacy, The last of us remake, RE4 remake.
Parla di ray tracing ?! Utilizza cyberpunk 2077, Resident evil 4 remake ecc
Parla di ghosting causato dal dlss nei giochi ?! Utilizza Redfall, cyberpunk 2077 ecc
Che poi lo smentiscono gli stessi giochi ( tranne cb 2077 che ha il motore grafico rotto ), che dopo qualche patch hanno letteralmente risolto il problema di vram ecc smentendo tutte le fesserie che dice.

Non lo senti mai, MAI, parlare di Control, Metro Exodus Enchanted Edition, Spider Man: Miles Morales, Shadows Tomb Raider, Doom Eternal ecc
Giochi si, usciti qualche anno fa, ma che graficamente, implementazione del ray tracing e in generale come giochi, cagano in testa ai giochi appena usciti, che spesso sono un disastro in quanto ad ottimizzazione.

Usa sempre e solo ciò che gli fa comodo per confermare le sue tesi.
 
Qui RDR 2 con e senza DLSS

Si può vedere chiaramente che quando si mette il DLSS il ghosting è cosi terribile da non poterci giocare, naturalmente viene sparato tutto al massimo senza un perchè ma ancora deve uscire un gioco in grado solo di avvicinarsi alla qualità grafica di RDR2

Da notare il consumo di memoria video, che con il DLSS attivo non raggiunge gli 8 GB di allocazione


Non sto dicendo che nessuno dovrebbe giocare con il DLSS, sto dicendo che a ME il DLSS fa pena pieta' e misericordia. Sara' che sono particolarmente sensibile io a questi artefatti? Poi e' ovvio che magari alla maggior parte delle persone piace perché forse non ci fa caso a questi dettagli o se ci fa' caso sono trascurabili. Non e' un problema di monitor perché se disattivo il DLSS magicamente sparisce il ghosting, come la perdita di dettaglio e il noise dell'immagine.
Per non parlare del fatto che io sparo tutto al massimo e ho un perché, ovvero: ho speso 1200 euro per una GPU che uso in 1440p ,che viene chiaramente descritta per il 4K, ci manca solo io debba scendere a compromessi nei giochi santo iddio. Ho fatto questa spesa proprio per evitare lo sbattimento di andarmi a studiare ogni impostazione per vedere quanti FPS guadagno. E' una pratica che ho fatto ai tempi della RX 280X, RX480 e sopratutto ai tempi della Radeon HD6670 quando cercavo in tutti i modi di farci girare Crysis 3😂 ma adesso non ho ne la voglia ne il tempo di farlo. Ormai sono diventato un utonto 😢😢, probabilmente a causa del fatto che devo risolvere problemi sui server tutto il giorno e nella vita privata cerco sempre la soluzione plug & play .
 
Non sto dicendo che nessuno dovrebbe giocare con il DLSS, sto dicendo che a ME il DLSS fa pena pieta' e misericordia. Sara' che sono particolarmente sensibile io a questi artefatti? Poi e' ovvio che magari alla maggior parte delle persone piace perché forse non ci fa caso a questi dettagli o se ci fa' caso sono trascurabili. Non e' un problema di monitor perché se disattivo il DLSS magicamente sparisce il ghosting, come la perdita di dettaglio e il noise dell'immagine.
Per non parlare del fatto che io sparo tutto al massimo e ho un perché, ovvero: ho speso 1200 euro per una GPU che uso in 1440p ,che viene chiaramente descritta per il 4K, ci manca solo io debba scendere a compromessi nei giochi santo iddio. Ho fatto questa spesa proprio per evitare lo sbattimento di andarmi a studiare ogni impostazione per vedere quanti FPS guadagno. E' una pratica che ho fatto ai tempi della RX 280X, RX480 e sopratutto ai tempi della Radeon HD6670 quando cercavo in tutti i modi di farci girare Crysis 3😂 ma adesso non ho ne la voglia ne il tempo di farlo. Ormai sono diventato un utonto 😢😢, probabilmente a causa del fatto che devo risolvere problemi sui server tutto il giorno e nella vita privata cerco sempre la soluzione plug & play .
Mhhhhhh non saprei sai. Stando al tuo caro amico, la rtx 3080ti è un ferma carte, un peso morto, come lo ha definito ieri. A stento se fai 60fps in 1080p è un miracolo. Inoltre sei vram limited in quasi tutti i giochi appena usciti, quelli moderni, next gen, quelli che solo il tuo amico vede.

Fossi in te comprerei una rtx 4090 cosi diventi un vero uomo come lui, inoltre ce il bonus che potete andare a catturare insieme le farfalline su Redfall senza correre il rischio di vedere il ghosting, comuqnue se dovesse capitare lo stesso, sai cosa fare: 🎶🎵 "who you call?! ghostbusters!!!"
 
vi faccio vedere la differenza ASSURDA che avevavno le texture in TLOU PRIMA della pach ultima mentre come sono ADESSO

Questo ]è lo stesso muro con texture ad ULTRA e al MINMO OGGI

texture ULTRA



Texture AL MINIMO



guardate come erano le texture al minimo prima delle patch derllo stesso tipo di muro




Le immagini si commentano da sole
Differenza imbarazzante.
E di imbarazzante , oltre allo stato in cui hanno rilasciato il gioco, ci sono le “testate” che hanno usato quella vergognosa immagine degna di una PS3 per dire “serve più VRAAAAAAAMMMMM !”, invece che “imparate a fare il vostro lavoro !”.
 
Mhhhhhh non saprei sai. Stando al tuo caro amico, la rtx 3080ti è un ferma carte, un peso morto, come lo ha definito ieri. A stento se fai 60fps in 1080p è un miracolo. Inoltre sei vram limited in quasi tutti i giochi appena usciti, quelli moderni, next gen, quelli che solo il tuo amico vede.

Fossi in te comprerei una rtx 4090 cosi diventi un vero uomo come lui, inoltre ce il bonus che potete andare a catturare insieme le farfalline su Redfall senza correre il rischio di vedere il ghosting, comuqnue se dovesse capitare lo stesso, sai cosa fare: 🎶🎵 "who you call?! ghostbusters!!!"
Scusa.... ma non sapresti cosa? Poi io riesco a ragionare con il mio cervello e non mi faccio influenzare da cio' che viene detto su quello o quell'altro argomento. Io so come si comporta la MIA GPU, so cosa vedono i MIEI occhi. Oh se poi o a te non va bene che io dica "A me il DLSS non piace perché peggiora l'immagine che i miei occhi vedono" peggio per te. IO lo noto e mi da' fastidio, magri tu lo noti e non ti da fastidio o non lo noti affatto. Il mondo e' bello perche' e' vario no? Qualche pagina fa si diceva che il mondo e' arcobaleno se non ricordo male. Oppure e' arcobaleno finche' non si va contro i vostri pareri?
Perché l'idea che mi sono fatto leggendo questo 3D da un po' di mesi è che se qualcuno la pensa diversamente viene bullizzato e preso in giro. Anche sulle cose soggettive come cio' che vedono i proprio occhi.
Poi ripeto, a me delle nuove GPU e delle nuove tecnologie frega niente. Non posso usare il PT? Frega niente. Non posso usare il DLSS+FG? Frega niente. Io sono felice con la mia GPU e la terro' per diversi anni a venire. Tanto se la base su cui vengono costruiti i giochi e' PS5 e XBSX la terrò probabilmente per tutta la durata di vita delle suddette console.
 
Scusa.... ma non sapresti cosa? Poi io riesco a ragionare con il mio cervello e non mi faccio influenzare da cio' che viene detto su quello o quell'altro argomento. Io so come si comporta la MIA GPU, so cosa vedono i MIEI occhi. Oh se poi o a te non va bene che io dica "A me il DLSS non piace perché peggiora l'immagine che i miei occhi vedono" peggio per te. IO lo noto e mi da' fastidio, magri tu lo noti e non ti da fastidio o non lo noti affatto. Il mondo e' bello perche' e' vario no? Qualche pagina fa si diceva che il mondo e' arcobaleno se non ricordo male. Oppure e' arcobaleno finche' non si va contro i vostri pareri?
Perché l'idea che mi sono fatto leggendo questo 3D da un po' di mesi è che se qualcuno la pensa diversamente viene bullizzato e preso in giro. Anche sulle cose soggettive come cio' che vedono i proprio occhi.
Poi ripeto, a me delle nuove GPU e delle nuove tecnologie frega niente. Non posso usare il PT? Frega niente. Non posso usare il DLSS+FG? Frega niente. Io sono felice con la mia GPU e la terro' per diversi anni a venire. Tanto se la base su cui vengono costruiti i giochi e' PS5 e XBSX la terrò probabilmente per tutta la durata di vita delle suddette console.
In realtà il nostro superman dice proprio il contrario di quello che dici tu, per lui è bianco o nero.
Io la penso come te (e non c'è bisogno di scaldarsi dai, il nostro Drad a volte punge un pò troppo ma è sempre in buonafede), se a te da fastidio è giusto che cerchi una soluzione che vada bene per te, non siamo mica lì noi davanti al tuo monitor😉
 
Non sto dicendo che nessuno dovrebbe giocare con il DLSS, sto dicendo che a ME il DLSS fa pena pieta' e misericordia. Sara' che sono particolarmente sensibile io a questi artefatti? Poi e' ovvio che magari alla maggior parte delle persone piace perché forse non ci fa caso a questi dettagli o se ci fa' caso sono trascurabili. Non e' un problema di monitor perché se disattivo il DLSS magicamente sparisce il ghosting, come la perdita di dettaglio e il noise dell'immagine.
Per non parlare del fatto che io sparo tutto al massimo e ho un perché, ovvero: ho speso 1200 euro per una GPU che uso in 1440p ,che viene chiaramente descritta per il 4K, ci manca solo io debba scendere a compromessi nei giochi santo iddio. Ho fatto questa spesa proprio per evitare lo sbattimento di andarmi a studiare ogni impostazione per vedere quanti FPS guadagno. E' una pratica che ho fatto ai tempi della RX 280X, RX480 e sopratutto ai tempi della Radeon HD6670 quando cercavo in tutti i modi di farci girare Crysis 3😂 ma adesso non ho ne la voglia ne il tempo di farlo. Ormai sono diventato un utonto 😢😢, probabilmente a causa del fatto che devo risolvere problemi sui server tutto il giorno e nella vita privata cerco sempre la soluzione plug & play .
a me sembra motlo strano che hai un ghosting cosi evidente

Ti ho fatto 2 video dove in tutte e diue le occasioni è attivo il DLSS in uno ci sta RDR2 dove affermi che quando usi il DLSS vedi tuttio impastato. adesso vorrei solo capire dal video che ti ho postato vedi differenze del genere?

A me pare di non vedere nulla di tutto ciò
 
Differenza imbarazzante.
E di imbarazzante , oltre allo stato in cui hanno rilasciato il gioco, ci sono le “testate” che hanno usato quella vergognosa immagine degna di una PS3 per dire “serve più VRAAAAAAAMMMMM !”, invece che “imparate a fare il vostro lavoro !”.
Parole sante !!!!
--- i due messaggi sono stati uniti ---
Scusa.... ma non sapresti cosa? Poi io riesco a ragionare con il mio cervello e non mi faccio influenzare da cio' che viene detto su quello o quell'altro argomento. Io so come si comporta la MIA GPU, so cosa vedono i MIEI occhi. Oh se poi o a te non va bene che io dica "A me il DLSS non piace perché peggiora l'immagine che i miei occhi vedono" peggio per te. IO lo noto e mi da' fastidio, magri tu lo noti e non ti da fastidio o non lo noti affatto. Il mondo e' bello perche' e' vario no? Qualche pagina fa si diceva che il mondo e' arcobaleno se non ricordo male. Oppure e' arcobaleno finche' non si va contro i vostri pareri?
Perché l'idea che mi sono fatto leggendo questo 3D da un po' di mesi è che se qualcuno la pensa diversamente viene bullizzato e preso in giro. Anche sulle cose soggettive come cio' che vedono i proprio occhi.
Poi ripeto, a me delle nuove GPU e delle nuove tecnologie frega niente. Non posso usare il PT? Frega niente. Non posso usare il DLSS+FG? Frega niente. Io sono felice con la mia GPU e la terro' per diversi anni a venire. Tanto se la base su cui vengono costruiti i giochi e' PS5 e XBSX la terrò probabilmente per tutta la durata di vita delle suddette console.
Bullizato ? Per una battuta ? Il 90% dei miei commenti in questa sezione ( rtx 4000 ) sono per sfottere @Kal El , non ho mai attaccato l'utente a livello personale, ma scherzo su ciò che dice in questa discussione, tra l'altro ho più volte ribadito, che lui può dire ciò che vuole poiché questo è un forum libero, però se dice oggettivamente delle fesserie, io devo farlo notare.

Parlando di te invece, qualche pagina fa hai dischiarato che anche tu eri d'accordo con lui sul fatto che la rtx 4090 sia una gpu adatta al 1440p e che sono le cpu ad essere lente.
Qui invece dici che la tua rtx 3080ti si comporta benissimo in 1440p, quindi mi chiedo:
Se la tua gpu è perfetta per giocare in 1440p ( hai detto che giochi tutto al max ), come potrà mai essere la rtx 4090 una gpu per tale risoluzione se va un 67% più della tua. Ripeto 67%.
Allora forse non sarà colpa delle cpu, ma della gpu che è stata pensata per il 4K no ???
Per questo ti ho preso in giro, che tra l'altro l'ho fatto anche in modo infantile e per niente offensivo.
 
Ultima modifica:
Differenza imbarazzante.
E di imbarazzante , oltre allo stato in cui hanno rilasciato il gioco, ci sono le “testate” che hanno usato quella vergognosa immagine degna di una PS3 per dire “serve più VRAAAAAAAMMMMM !”, invece che “imparate a fare il vostro lavoro !”.
quello screen come spiegato ad @Avets fu fatto nel 3d del gioco proprio per contestare la tesi della maggiore VRAM.
Feci screen anche di TLOU remastered (che ha 10 anni) su ps4, TLOU 2 su un muro molto simile, che avevano texture nettamente migliori

Ma ci stavano utenti e soprattutto testate che uscivano con video in cui affermavano "eh ma se il gioco è cosi allora in futuro ci vorranno minimo 16gb di vram in QHD"

Non dicevano "guarda che schifo di texture ma che hanno combinato!"
 
quello screen come spiegato ad @Avets fu fatto nel 3d del gioco proprio per contestare la tesi della maggiore VRAM.
Feci screen anche di TLOU remastered (che ha 10 anni) su ps4, TLOU 2 su un muro molto simile, che avevano texture nettamente migliori

Ma ci stavano utenti e soprattutto testate che uscivano con video in cui affermavano "eh ma se il gioco ]e cosi allora in futuro ci vorranno minimo 16gb di vram in QHD"

Non dicevano "guarda che schifo di texture ma che hanno combinato!"
Il web era invaso da articoli del genere. Questo dimostra come loro cercano le views, al costo di passare per ignoranti e soprattutto fare disinformazione, piuttosto che fare un articolo serio dove si analizza correttamente la situazione.
Per questo piccoli angoli come questo forum sono preziosi e vanno difesi da gente che vorrebbe fare disinformazione ( anche non consapevole ).
 
a me sembra motlo strano che hai un ghosting cosi evidente

Ti ho fatto 2 video dove in tutte e diue le occasioni è attivo il DLSS in uno ci sta RDR2 dove affermi che quando usi il DLSS vedi tuttio impastato. adesso vorrei solo capire dal video che ti ho postato vedi differenze del genere?

A me pare di non vedere nulla di tutto ciò
No, dal video che hai messo non noto queste differenze, però noto differenze con ciò che vedo io (forse a causa della compressione di YT?). Io lo uso sempre in modalità qualità. Ma il ghosting e' il minore dei mali, bisogna aggiungerci anche il rumore che si genera e la perdita di dettaglio sulle lunghe distanze o sugli oggetti piccoli. E' una tecnologia "miracolosa" ma dietro i miracoli si nasconde sempre un "imbroglio" che io noto fin troppo forse.
In realtà il nostro superman dice proprio il contrario di quello che dici tu, per lui è bianco o nero.
Io la penso come te (e non c'è bisogno di scaldarsi dai, il nostro Drad a volte punge un pò troppo ma è sempre in buonafede), se a te da fastidio è giusto che cerchi una soluzione che vada bene per te, non siamo mica lì noi davanti al tuo monitor😉
Hai ragione, forse mi sono lasciato prendere un po' troppo.
quello screen come spiegato ad @Avets fu fatto nel 3d del gioco proprio per contestare la tesi della maggiore VRAM.
Feci screen anche di TLOU remastered (che ha 10 anni) su ps4, TLOU 2 su un muro molto simile, che avevano texture nettamente migliori

Ma ci stavano utenti e soprattutto testate che uscivano con video in cui affermavano "eh ma se il gioco è cosi allora in futuro ci vorranno minimo 16gb di vram in QHD"

Non dicevano "guarda che schifo di texture ma che hanno combinato!"
Mi sono reso conto di quanto la VRAM sia diventata "dannosa" per le persone quando un mio conoscente mi disse che una GPU era migliore di un'altra perche aveva 8GB mentre l'altra 6GB (non ricordo di che modelli si trattasse ma quella da 6GB era nettamente migliore).
Poi io tutti sti problemi di VRAM non li ho mai avuti neanche con la 980Ti con i suoi miseri 6GB dove sparavo sempre le texutre al massimo. Qualche gioco mi diceva che ero oltre il limite di memoria ma non ho mai sofferto di freez o blocchi vari. Diciamo che mi fido poco di quello che i giochi dicono sull'allocazione della VRAM
 
Ho provveduto ad aggiornare in bio il mio hardware, in ogni caso al momento ho un Aoc 23.8" led ips 24g2u/bk in attesa di passare ad un monitor 2k in futuro. In una discussione aperta sul forum mi dicevano non esserci problemi di incompatibilità con questo schermo.




Se non erro queste impostazioni erano bloccate e non mi faceva modificare nulla.
DEvono essere modificabili. per risoluzione e bit (8). Se è selezionata HDR su windows toglila. tanto il monitor non lo supporta e potrebbe darti l'effetto slavato. Reinstalla i driver come ti hanno detto. Oppure altra cosa. Tu hai detto che sei collegato tramite HDMI. Hai per caso un menu sul monitor che ti fa selezionare opzioni sulla HDMI?
 
Pubblicità
Pubblicità
Indietro
Top