UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
ma il DLSS è un tech necessaria oggi
Oggi si.. ma il discorso che faccio io è che se non ci piace e non vogliamo usarlo abbiamo il santo diritto di spendere soldi per non usarlo, però non è che automaticamente il gioco faccia schifo, io ho fatto degli wow in certe aree di Cyberpunk anche con DLSS a bilanciato, anche giocandolo tutto ad alto con dlss a prestazioni sul notebook, perchè comunque il ray tracing lasciava un effetto a cui ancora non eravamo abituati. Questo a dire, se vogliamo il meglio possibile in resa estetica ci sta che compriamo hardware di certo costo (poi io sono uno che addirittura in passato comprò schede video SOLO per moddare a bestia certi giochi e spingerli ancora di più esteticamente), però questo non rende schifoso giocare con qualche compromessino, un gioco con una bella grafica sa dare soddisfazioni anche con hardware inferiore e compromessi vari, capisco mettere tutto a basso e disattivare il ray tracing, lì manco a me piace, ma qualche compromessino non rende uno schifo il gioco. Non è bianco o nero insomma, o il massimo possibile o fa tutto schifo!
 
eh bhe poi si dice che le dimensioni non contano :D
in ogni caso bella scheda la PNY, e dovrebbe essere anche abbastanza silenziosa da quel che ho letto in giro...
si, è tra le più silenziose... anche se io non sono uno di quelli molto sensibili al "problema" (leggasi: me ne frego se fa rumore 😅).
In confronto alla 3080 EVGA è lievemente meno rumorosa, ma non dava fastidio neppure la FTW3 Ultra.
 
ma io non voglio convincere nessuno esistono i file config dei giochi dove ci sta pure scritto il limite fisico di allocazione della vram utilizzata che poi cambia pure a seconda della scheda video rilevata dal sistema

Uno può credere a quello che vuole i fatti sono fatti.

Al momento esiste un solo gioco che SOLO scaricando le texture pack 4k super ultra definite a parte ha bisogno di più di 10 GB di memora video (e guarda caso gli stessi sviluppatori lo dicono che ci vuole uan scheda con almeno 11/12 GB)

Texture fatte appositamente al tempo per chi aveva una 2080 ti che altrimenti tutta quella memeoria video non l'avrebbero mai sfruttata, ed è far cry 6

Ma ripeto si scaricano a parte e sono texture 4k (inutile su un 1440p)
vero. E mettere texture 4K su un monitor 1440P la considero una genialata proprio 😅
 
si, è tra le più silenziose... anche se io non sono uno di quelli molto sensibili al "problema" (leggasi: me ne frego se fa rumore 😅).
In confronto alla 3080 EVGA è lievemente meno rumorosa, ma non dava fastidio neppure la FTW3 Ultra.
la 3080FTW3 era anche sicuramente più "caldina" di questa...
le ADA sono fresche alla fine :)
 
Puoi anche portare i fatti, le prove inconfutabili, puoi persino invitare gli ingegneri di Nvidia/AMD a certificare che ciò che stai dicendo è vero ma nulla cambia.
Il 99,9999999% degli utenti del forum la pensano come te, il 0,00000@Kal El la pensa diversamente.
😂

A parte gli scherzi l'unico caso in cui ho visto la rtx 3080 10GB creare stuttering per via della vram è stato su Doom Eternal in 4K nativo tutto al max, ray tracing e compreso le texture pack 4K applicate.
Nel test appena hanno tolto il texture pack 4K si è tornati a stare sotto i 10GB. Ma stiamo parlando di casi estremi e non di risoluzioni inferiori come il 1440p e 1080p dove persino 8GB di vram bastano.
certo, se parliamo di 4K concordo che siamo molto al limite con 10 GB... ma anche perché gli sviluppatori non è che si impegnano più di tanto ad ottimizzare...
 
Certo che è sufficiente, ma i 10Gb di Vram sono un problema non da poco, purtroppo, soprattutto in RT.
no, no e poi no.
Non a 1440P almeno.

Puoi continuare a ripetertelo in eterno se vuoi, ma i 10 GB a 1440P bastano eccome (ne bastano 8 nella maggioranza dei casi a dirla tutta... ti concedo i 10 solo se usi il RT pesantemente).

Tra l'altro sul penultimo video di Prodigeek fanno proprio riferimento ad un articolo di Tom's e nemmeno in maniera lusinghierissima..
a parte che se volessi commentare quello che dicono loro nei video ci sarebbe da riderne, ma finché parlano di articoli della Redazione vi ribadisco che NOI MODERATORI e admin del forum non abbiamo alcun contatto con loro.
 
la 3080FTW3 era anche sicuramente più "caldina" di questa...
le ADA sono fresche alla fine :)
no no non credere. Come GPU ed Hotspot la differenza è di 3/4° eh. La FTW3 ha un bel dissipatore...
Dove c'è tanta differenza è sulle VRAM: almeno 15/16° in meno sulla 4080

Bhe spero che andrai a condividere qualche bench di giochi con RT ecc Ci stava un altro utente con la rtx 4090 ma voleva dei soldi per la condivisione di bench roba da matti 😂, penso che te ne saremo tutti grati. Aspetto anche quelli di @Max(IT) appena ne ha voglia e tempo, poiché ho voglia di capire quanti benefici potrebbe dare in 1440p la 4080, anzi forse sarebbe più corretto dire quanti sacrifici in meno per potersi godere un titolo con rt attivo, dove ovviamente è stato implementato bene.
la 4080 in 1440P è sprecata... ne ero consapevole sin dal momento in cui ho premuto ACQUISTA.
è una scheda da 4K.
Per il 1440P la 4070Ti è perfetta ed abbondante.

Giusto giusto, il Dlss rende a seconda di come viene implementato nei diversi engine dai vari Devs.
Ad esempio, su Cyberpunk 2077 è fantastico, ma porta comunque ad una perdita di dettagli rispetto al nativo, prova, vai in un locale notturno a Night City, dove ci sono tanti led che riflettono sul viso e vestiti di un NPC, poi fai uno screen con dlss e senza dlss(con rt attivo), guarda come cambia la restituzione della luce dai materiali e come quanti più dettagli emergono.
Poi ci sono anche giochi dove il DLSS è improponibile, come Control, a causa dei pochi raggi traccianti a bassa risoluzione i riflessi sono un continuo ''lampeggiare''(shimmering), tuttavia il gioco gira bene da una 3080 in su a 1440p senza DLSS e con RT On.
Non si può generalizzare, ma il DLSS è un tech necessaria oggi per far girare bene il RT sull'HW, ma è anche abusato dai DEVS, i quali con la scusante di tech di uscaling non ottimizzano più in modo efficace, ''tanto c'è il dlss'', chi ce lo fa fare di ottimizzare???
E gli ultimi giochi usciti, lo dimostrano!
veramente ci sono diverse analisi che indicano come con il DLSS ottieni una qualità di immagine superiore al nativo (o quantomeno NON inferiore), se implementato bene.
 
no no non credere. Come GPU ed Hotspot la differenza è di 3/4° eh. La FTW3 ha un bel dissipatore...
Dove c'è tanta differenza è sulle VRAM: almeno 15/16° in meno sulla 4080

allora si, la FTW3 a questo punto aveva proprio un ottimo dissipatore, tienila quella scheda che di EVGA con NVIDIA non ce ne saranno più... :D

sulle VRAM è evidente, i nuovi moduli Micron sono decisamente più freschi, sulla 4090 liquidata non arrivo nemmeno a 40gradi (le tengo a +1000), ma pure sulle 4080 e 4070ti ad aria le vedo con il binocolo le temp medie delle vecchie 3000...
 
Io tutte le volte che ho attivato il dlss mi sono reso conto di un effetto sfocatura, come se appunto si passasse ad una risoluzione minore, ed è infatti ciò che fa, renderizza le immagini ad una risoluzione minore.
Un pò c'è, non c'è da girarci attorno, per questo si tende ad ovviare, anche se non è certo la stessa cosa, aumentando un pelo i valori di sharpening, proprio per via che, deteriorandosi un pò l'immagine va anche a sfuocare un pochettino il tutto. Purtroppo è vero e se un gioco me lo permette, ancor di più oggi con la 4070ti, lo disattivo, tuttavia non è che mi rifiuto a priori di giocare un gioco se non posso disattivarlo, alla fine comunque il ray tracing fa la differenza se è di un certo livello, tra attivare il ray tracing e mettere il DLSS e tenere il ray tracing disattivato preferisco decisamente la prima, perchè a me piace, perchè io stesso faccio rendering 3D, mi piace anche per deformazione mia personale. Poi dipende anche dal gioco, in Metro Exodus mi ha fatto proprio schifo, in altri molto meno, in HL, a parte che non si riesce nemmeno con la 4070ti a disattivarlo a meno di non accettare di giocare a 35 fps (anche no), non mi pesa averlo attivo.
 
Ultima modifica:
Un pò c'è, non c'è da girarsi attorno, per questo si tende ad ovviare, anche se non è certo la stessa cosa, aumentando un pelo i valori di sharpening, proprio per via che, deteriorandosi un pò l'immagine va anche a sfuocare un pochettino il tutto. Purtroppo è vero e se un gioco me lo permette, ancor di più oggi con la 4070ti, lo disattivo, tuttavia non è che mi rifiuto a priori di giocare un gioco se non posso disattivarlo, alla fine comunque il ray tracing fa la differenza se è di un certo livello, tra attivare il ray tracing e mettere il DLSS e tenere il ray tracing disattivato preferisco decisamente la prima, perchè a me piace, perchè io stesso faccio rendering 3D, mi piace anche per deformazione mia personale. Poi dipende anche dal gioco, in Metro Exodus mi ha fatto proprio schifo, in altri molto meno, in HL, a parte che non si riesce nemmeno con la 4070ti a disattivarlo, non mi pesa averlo attivo.
Io giocando in 4k il dlss è il mio migliore amico 🤣
 
allora si, la FTW3 a questo punto aveva proprio un ottimo dissipatore, tienila quella scheda che di EVGA con NVIDIA non ce ne saranno più... :D

si si la FTW3 finisce a mio figlio grande

sulle VRAM è evidente, i nuovi moduli Micron sono decisamente più freschi, sulla 4090 liquidata non arrivo nemmeno a 40gradi (le tengo a +1000), ma pure sulle 4080 e 4070ti ad aria le vedo con il binocolo le temp medie delle vecchie 3000...
sulla 4080 le GDDR6X mi arrivano sui 55/60° a seconda del gioco. Sulla 3080 erano sugli 80°.
 
Pubblicità
Pubblicità
Indietro
Top