UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
No, dal video che hai messo non noto queste differenze, però noto differenze con ciò che vedo io (forse a causa della compressione di YT?). Io lo uso sempre in modalità qualità. Ma il ghosting e' il minore dei mali, bisogna aggiungerci anche il rumore che si genera e la perdita di dettaglio sulle lunghe distanze o sugli oggetti piccoli. E' una tecnologia "miracolosa" ma dietro i miracoli si nasconde sempre un "imbroglio" che io noto fin troppo forse.

aloa è strano se il DLSS ti fa quelle cose dovrebbe farla anche a me e notarsi anche dai video

La compressione ovvio ci sta una lieve perdita generale ma non è quello che si deve guardare ma se noti differenze tra quando attivo il dlss e quando lo disattivo

Sei sicuro che non dipenda dallo schermo?

Se utilizzi una modalità override troppo alta gli IPS iniziano a soffrire di ghoting inverso
 
Comunque The Last Of Us che giocai al lancio sulla 3080 dato che non avevo ancora ma 4080 l’unico problema che mi dava erano i crash! Per il resto ho sparato tutto ad ultra e non solo in questo gioco è mai un problema! E stavo ampiamente sopra i 70fps soprattutto su Tlou.
 
Mi sono reso conto di quanto la VRAM sia diventata "dannosa" per le persone quando un mio conoscente mi disse che una GPU era migliore di un'altra perche aveva 8GB mentre l'altra 6GB (non ricordo di che modelli si trattasse ma quella da 6GB era nettamente migliore).
Poi io tutti sti problemi di VRAM non li ho mai avuti neanche con la 980Ti con i suoi miseri 6GB dove sparavo sempre le texutre al massimo. Qualche gioco mi diceva che ero oltre il limite di memoria ma non ho mai sofferto di freez o blocchi vari. Diciamo che mi fido poco di quello che i giochi dicono sull'allocazione della VRAM
Cee bhoo io non ti capisco proprio. Qui hai scritto una cosa estremamente corretta, mentre l'altro giorno te ne sei uscito con quella fesserie sulla rtx 4090.
La gtx 980ti è stata una gran bella gpu, inoltre nel 2015 fino al 2019 6GB erano abbondanti.
Ritornando al discorso vram, è follia pura pensare che 8GB siano pochi per giocare in 1080p/1440p, è corretto dire che non sono il massimo poiché il ray tracing consuma ulteriore vram, ma come sappiamo benissimo, attivare il ray tracing comporta attivare anche il dlss e quest'ultimo abbassa l'utilizzo di vram.
Se poi si arriva a dire che 10GB sono pochi per il 1440p ( non parlo di te ) allora si è da ricovero immediato.
 
aloa è strano se il DLSS ti fa quelle cose dovrebbe farla anche a me e notarsi anche dai video

La compressione ovvio ci sta una lieve perdita generale ma non è quello che si deve guardare ma se noti differenze tra quando attivo il dlss e quando lo disattivo

Sei sicuro che non dipenda dallo schermo?

Se utilizzi una modalità override troppo alta gli IPS iniziano a soffrire di ghoting inverso
Si si sono sicuro non sia lo schermo, sia perché l'ho impostato in modo da non generarmi ghosting sia perché se disattivo il DLSS tutto torna alla normalità. Comunque me ne farò una ragione, forse sono semplicemente troppo pignolo. Per chi è interessato comunque ho scoperto che aggiornando manualmente il DLSS su CP mi ha risolto il problema di sfarfallio delle luci e vari artefatti grafici. Ora ho aggiornato tutti i giochi che sfruttano il DLLS all'ultima versione del DLSS prendendo il file da techpowerup
--- i due messaggi sono stati uniti ---
Cee bhoo io non ti capisco proprio. Qui hai scritto una cosa estremamente corretta, mentre l'altro giorno te ne sei uscito con quella fesserie sulla rtx 4090.
La gtx 980ti è stata una gran bella gpu, inoltre nel 2015 fino al 2019 6GB erano abbondanti.
Ritornando al discorso vram, è follia pura pensare che 8GB siano pochi per giocare in 1080p/1440p, è corretto dire che non sono il massimo poiché il ray tracing consuma ulteriore vram, ma come sappiamo benissimo, attivare il ray tracing comporta attivare anche il dlss e quest'ultimo abbassa l'utilizzo di vram.
Se poi si arriva a dire che 10GB sono pochi per il 1440p ( non parlo di te ) allora si è da ricovero immediato.
A mio parere non è una fesseria e lo penso ancora il fatto che se avessi la voglia prenderei una 4090 per giocare in 1440p. Il problema e che non ho voglia di mettermi a cercarla e di cambiare anche alimentatore. Come presi la 3080Ti per il 1440p e come presi ai bei tempi la 980Ti per il FHD quando tutti mi dicevano che era una gpu da 1440p.
 
Ultima modifica:
Si si sono sicuro non sia lo schermo, sia perché l'ho impostato in modo da non generarmi ghosting sia perché se disattivo il DLSS tutto torna alla normalità. Comunque me ne farò una ragione, forse sono semplicemente troppo pignolo. Per chi è interessato comunque ho scoperto che aggiornando manualmente il DLSS su CP mi ha risolto il problema di sfarfallio delle luci e vari artefatti grafici. Ora ho aggiornato tutti i giochi che sfruttano il DLLS all'ultima versione del DLSS prendendo il file da techpowerup
--- i due messaggi sono stati uniti ---

A mio parere non è una fesseria e lo penso ancora il fatto che se avessi la voglia prenderei una 4090 per giocare in 1440p. Il problema e che non ho voglia di mettermi a cercarla e di cambiare anche alimentatore. Come presi la 3080Ti per il 1440p e come presi ai bei tempi la 980Ti per il FHD quando tutti mi dicevano che era una gpu da 1440p.
Continua ad essere starno perchè nel DLSS non noto nè luci nè artrefatti, in alcuni casi vi possono essere degli atrefatti, ma parlando del DLSS 3.0 FG non del 2
 
Continua ad essere starno perchè nel DLSS non noto nè luci nè artrefatti, in alcuni casi vi possono essere degli atrefatti, ma parlando del DLSS 3.0 FG non del 2
Sta cosa mi fa strano. Non può essere un problema SW perché ho fatto la reinstallazione pulita di windows settimana scorsa. Comunque su RDR2 con l'ultimo dlss il ghosting e il rumore sono diminuiti ma la perdita di dettaglio e' rimasta. Penso che su CP era un problema legato al PT che uso, che pero' si e' risolto mettendo su la versione aggioranta del DLSS
 
Comunque The Last Of Us che giocai al lancio sulla 3080 dato che non avevo ancora ma 4080 l’unico problema che mi dava erano i crash! Per il resto ho sparato tutto ad ultra e non solo in questo gioco è mai un problema! E stavo ampiamente sopra i 70fps soprattutto su Tlou.

TLOU si poteva anche sparare ad ultra con la 3080 12GB è vero

sulle RTX 3000 aveva crash random che sono stati risolti con la seconda patch ed il driver `Nvidia, da allora nemmeno un crash!

in ogni modo adesso il gioco si può dire che con quest'ultima patch il gioco sia nelle condizioni in cui doveva uscire!

Non è nemmeno difficile capire il perchè sia stato rilasciato in quelle condizioni, perchè appare palese dalla cronologia degli eventi invece di strillare ai quattro venti che serviva VRAM.

Molto semplicemente volevano cavalcare l'onda della popolarità della serie, il gioco era stato previsto per la messa in onda della serie, ma fu rimandato di un altro mese perchè immagino che fosse in condizioni ancora peggiori.
Il mese dopo hanno preso la decisione di cacciarlo in qualsiais condizione fosse perchè avranno valutato che rimandare ancora avrebbe compromesso pesantemente il loro scopo di "legarlo" alla serie televisiva
 
Sta cosa mi fa strano. Non può essere un problema SW perché ho fatto la reinstallazione pulita di windows settimana scorsa. Comunque su RDR2 con l'ultimo dlss il ghosting e il rumore sono diminuiti ma la perdita di dettaglio e' rimasta. Penso che su CP era un problema legato al PT che uso, che pero' si e' risolto mettendo su la versione aggioranta del DLSS
non so che dire magari fai un video, quello in cui il DLSS è davvero fenomenale è proprio il dettaglio

Il DLSS non è un semplice scaler, ma ricostruisce la texture e le parti mancanti in maniera nativa attravero un intelligenza artificiale

Per farti un esempio banale se all'algoritmo del DLSS gli metti delle facce, senza occhi ne bocca questo ti metterà le parti mancanti in modo credibile tanto da creare dei volti a risoluzione nativa
Ovviamente non potranno essere gli occhi e la bocca del soggetto "originale" ma è per fari capire come funziona

Se siamo di fronte ad un prato l'algoritmo sostituirà le informazioni mancanti con pezzi "coerenti " dello scenario in oggetto.

Magari fai un video
 
TLOU si poteva anche sparare ad ultra con la 3080 12GB è vero

sulle RTX 3000 aveva crash random che sono stati risolti con la seconda patch ed il driver `Nvidia, da allora nemmeno un crash!

in ogni modo adesso il gioco si può dire che con quest'ultima patch il gioco sia nelle condizioni in cui doveva uscire!

Non è nemmeno difficile capire il perchè sia stato rilasciato in quelle condizioni, perchè appare palese dalla cronologia degli eventi invece di strillare ai quattro venti che serviva VRAM.

Molto semplicemente volevano cavalcare l'onda della popolarità della serie, il gioco era stato previsto per la messa in onda della serie, ma fu rimandato di un altro mese perchè immagino che fosse in condizioni ancora peggiori.
Il mese dopo hanno preso la decisione di cacciarlo in qualsiais condizione fosse perchè avranno valutato che rimandare ancora avrebbe compromesso pesantemente il loro scopo di "legarlo" alla serie televisiva
Io l’ho giocato con la 3080 10GB non la 12😉. Sì ma infatti, comunque nonostante il gioco era pessimo per me risolti i crash è stato giocabilissimo. L’uso intensivo della cpu non mi ha mai creato nessun problema, d’altronde la cpu è ben dissipata quindi che mi stava al 20/30% o al 70/80% non mi cambiava molto. Immagino però che ha creato problemi a chi non aveva una cpu abbastanza performante e ben dissipata.
 
Scusate , breve domanda, il mio case mini itx Q58 è PCIE 3.0, non mi ricordavo di aver acquistato quello con questa specifica perchè in offerta, pensando in futuro se poteva servire lo averei acquistato a parte il supporto 4.0. MA secondo voi con la 4080 può portare un funzionamento non adeguato? Se si tratta di 3 fps non importa, ma vorrei capire. Grazie
 
Scusate , breve domanda, il mio case mini itx Q58 è PCIE 3.0, non mi ricordavo di aver acquistato quello con questa specifica perchè in offerta, pensando in futuro se poteva servire lo averei acquistato a parte il supporto 4.0. MA secondo voi con la 4080 può portare un funzionamento non adeguato? Se si tratta di 3 fps non importa, ma vorrei capire. Grazie
ma in che senso il case è pcie 3.0? è la mobo (e la cpu) che danno la specifica del bus.
 
Scusate , breve domanda, il mio case mini itx Q58 è PCIE 3.0, non mi ricordavo di aver acquistato quello con questa specifica perchè in offerta, pensando in futuro se poteva servire lo averei acquistato a parte il supporto 4.0. MA secondo voi con la 4080 può portare un funzionamento non adeguato? Se si tratta di 3 fps non importa, ma vorrei capire. Grazie
Una 4090 perde mediamente un 2% scendendo a pci-e 3.0 (che è nulla)
La 4080 al massimo farà similmente

https://www.techpowerup.com/review/nvidia-geforce-rtx-4090-pci-express-scaling/28.html
--- i due messaggi sono stati uniti ---
ma in che senso il case è pcie 3.0? è la mobo (e la cpu) che danno la specifica del bus.
No, è un case che integra una prolunga pci-e per consentire l'alloggio della gpu
In questi casi il tipo di prolunga usata conta
 
Scusate , breve domanda, il mio case mini itx Q58 è PCIE 3.0, non mi ricordavo di aver acquistato quello con questa specifica perchè in offerta, pensando in futuro se poteva servire lo averei acquistato a parte il supporto 4.0. MA secondo voi con la 4080 può portare un funzionamento non adeguato? Se si tratta di 3 fps non importa, ma vorrei capire. Grazie
@Max(IT) aveva (per necessità) fatto i test in PciEx3.0 e non c'erano differenze apprezzabili.
 
Pubblicità
Pubblicità
Indietro
Top