UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
di cavolate se ne leggono tante purtroppo :D
ormai paradossalmente è l'oc classico vecchia maniera che non conviene più su queste schede, ma l'ottimizzazione della tensione invece si, si riducono sensibilmente le temperature, si stressano meno i VRM e la GPU lavora a frequenza mediamente maggiore e con meno tagli...

per i 3ghz comunque dovrai salire quasi sicuramente oltre 1v, difficile tenerli stabili al 100% sotto quel valore, la mia per esempio vuole 1.025v per essere stabile in tutto a quella frequenza, considera però che sto a liquido, con vga che non passa i 41-42° e 34-35° sulle vram, ad aria ci sta che richieda qualcosina di più...
Ok perfetto, oggi pomeriggio proverò, ma sopra 1V non vado mai proprio per principio 🤣🤣🤣
 
Amd punta alle console il mercato e dalla loro parte

Ma te l'immagini l'apprendimento delle intelligenze artificiali performato dalle schede video AMD? Nelle migliori delle ipotesi l'IA rincoglionisce, nella peggiore qualcuna di loro impazzisce e si convince di dover sterminare la razza umana 🤣🤣🤣

No no, per le cose serie affidiamoci ad NVIDIA, per console e giochini possiamo pure usare AMD 😅
 
Ma te l'immagini l'apprendimento delle intelligenze artificiali performato dalle schede video AMD? Nelle migliori delle ipotesi l'IA rincoglionisce, nella peggiore qualcuna di loro impazzisce e si convince di dover sterminare la razza umana 🤣🤣🤣

No no, per le cose serie affidiamoci ad NVIDIA, per console e giochini possiamo pure usare AMD 😅
.... questa è potente...
 
Ma te l'immagini l'apprendimento delle intelligenze artificiali performato dalle schede video AMD? Nelle migliori delle ipotesi l'IA rincoglionisce, nella peggiore qualcuna di loro impazzisce e si convince di dover sterminare la razza umana 🤣🤣🤣

No no, per le cose serie affidiamoci ad NVIDIA, per console e giochini possiamo pure usare AMD 😅

Tipo "AMD che ore sono?"

"fatti i cazzi tuoi"
 
Un balzo del genere a livello grafico non l’ho mai fatto, il salto fatto da 1070 a 3080 mi sembra una roba del 2016 se paragonata a questa, ossia da 3080 a 4090.
Mi permette di maxare titoli in Rt, con dlss3 ho un frame rate elevato, ma soprattutto posso attivare il dldsr, per una resa grafica finale pazzesca.
Se guardate l’illuminazione globale, la definizione delle spade negli screen in tw3 ve ne accorgerete, roba che con la 3080 non potevo assolutamente fare, ma ripeto, la chicca è il dldsr unito al dlss3.
Mi sembra di aver fatto un passo di cinque anni avanti, in ambito grafico.
 
Un balzo del genere a livello grafico non l’ho mai fatto, il salto fatto da 1070 a 3080 mi sembra una roba del 2016 se paragonata a questa, ossia da 3080 a 4090.
Mi permette di maxare titoli in Rt, con dlss3 ho un frame rate elevato, ma soprattutto posso attivare il dldsr, per una resa grafica finale pazzesca.
Se guardate l’illuminazione globale, la definizione delle spade negli screen in tw3 ve ne accorgerete, roba che con la 3080 non potevo assolutamente fare, ma ripeto, la chicca è il dldsr unito al dlss3.
Mi sembra di aver fatto un passo di cinque anni avanti, in ambito grafico.

eh bhe ci credo, dalla 3080 liscia alla 4090 hai un boost notevole si, pure senza contare il DLSS3/FG, bastano solo le unità di calcolo quasi raddoppiate e la frequenza di clock...

il DLDSR è ottimo per i titoli più leggeri, lo uso anche io parecchio (il 2.25x per una res finale di 5760x3240)...
anche il DLAA è favoloso, e con il DLSSTweaks si riesce a forzare facilmente al posto del DLSS anche dove non è supportato, il risultato è veramente notevole, ci ho finito TLOU e Plague Tale Requiem così, uno spettacolo per gli occhi...

del resto tutta sta potenza va sfruttata dove si può... :)
 
uno spettacolo per gli occhi...

del resto tutta sta potenza va sfruttata dove si può... :)
Esatto, è proprio quello stupore che si prova guardando un grafica “pompata” che mi mancava e che con la 3080 difficilmente ho provato a causa dell’utilizzo del dlss2 o del non poter maxare i videogame in Rt.
Totalmente un’altra storia con questa Gpu, dalla capacità di poter sfruttare il dldsr al dlss3, promossa voti pieni con tanto di lode.
--- i due messaggi sono stati uniti ---
Ma dldsr che sarebbe? Si può attivare in tutti i giochi? Dove?
È una tecnica di supersampling che sfrutta i tensor core, pesando meno di tech affini come il DSR.
Si, appena torno al pc ti faccio la guida, aggiornerò questa risposta.
 
Ultima modifica:
Esatto, è proprio quello stupore che si prova guardando un grafica “pompata” che mi mancava e che con la 3080 difficilmente ho provato a causa dell’utilizzo del dlss2 o del non poter maxare i videogame in Rt.
Totalmente un’altra storia con questa Gpu, dalla capacità di poter sfruttare il dldsr al dlss3, promossa voti pieni con tanto di lode.

nel mio caso l'aspetto che ho gradito di più è l'efficienza, alla fine ottimizzando bene si arriva ad avere consumi quasi dimezzati rispetto ad Ampere, basti pensare che un livello di perf simil-3090Ti la 4090 lo raggiunge con un PL al 50% più o meno lol...
 
Esatto, è proprio quello stupore che si prova guardando un grafica “pompata” che mi mancava e che con la 3080 difficilmente ho provato a causa dell’utilizzo del dlss2 o del non poter maxare i videogame in Rt.
Totalmente un’altra storia con questa Gpu, dalla capacità di poter sfruttare il dldsr al dlss3, promossa voti pieni con tanto di lode.
--- i due messaggi sono stati uniti ---

È una tecnica di supersampling che sfrutta i tensor core, pesando meno di tech affini come il DSR.
Si, appena torno al pc ti faccio la guida, aggiornerò questa risposta.
Ho visto, si. Ma io gioco su 1600p monitor e su 4k tv. Anche a queste risoluzioni posso apprezzare delle effettive migliorie?
 
nel mio caso l'aspetto che ho gradito di più è l'efficienza, alla fine ottimizzando bene si arriva ad avere consumi quasi dimezzati rispetto ad Ampere, basti pensare che un livello di perf simil-3090Ti la 4090 lo raggiunge con un PL al 50% più o meno lol...
Sisi, devo ancora ottimizzarla, ma su tw3 consumo come la 3080 va cado quattro volte tanto con il dlss3, o comunque 3 volte tanto senza dlss3, grande grande processo produttivo ed architettura.
--- i due messaggi sono stati uniti ---
Ho visto, si. Ma io gioco su 1600p monitor e su 4k tv. Anche a queste risoluzioni posso apprezzare delle effettive migliorie?
Provalo tu stesso no?
Sul 1600p si nota alla grande penso, mettilo ad 1.7x.
 
Sisi, devo ancora ottimizzarla, ma su tw3 consumo come la 3080 va cado quattro volte tanto con il dlss3, o comunque 3 volte tanto senza dlss3, grande grande processo produttivo ed architettura.
--- i due messaggi sono stati uniti ---

Provalo tu stesso no?
Sul 1600p si nota alla grande penso, mettilo ad 1.7x.
Si, appena posso provo. 1.7x è la proporzione di aumento risoluzione? Dovrò poi selezionare una nuova risoluzione sul menu del gioco giusto? Sono curioso di vederebche succede con la 4080
 
Si, appena posso provo. 1.7x è la proporzione di aumento risoluzione? Dovrò poi selezionare una nuova risoluzione sul menu del gioco giusto? Sono curioso di vederebche succede con la 4080
Allora:
Pannello di controllo nVidia-Regola le impostazioni delle immagini con anteprima-Usa le impostazioni dell'immagine 3D Avanzate-Apri la Pagina-Impostazioni Globali-DSR Fattori-Ridimensionamento DL- spunta l'icona 1.78x DL ed 2.25x DL- OK- Applica.

Poi apri il gioco che vuoi, e nei settings della risoluzione ci saranno due nuove opzioni, relative appunto al dldsr ad 1.78x ed 2.25x.
 
Allora:
Pannello di controllo nVidia-Regola le impostazioni delle immagini con anteprima-Usa le impostazioni dell'immagine 3D Avanzate-Apri la Pagina-Impostazioni Globali-DSR Fattori-Ridimensionamento DL- spunta l'icona 1.78x DL ed 2.25x DL- OK- Applica.

Poi apri il gioco che vuoi, e nei settings della risoluzione ci saranno due nuove opzioni, relative appunto al dldsr ad 1.78x ed 2.25x.
Ok, quindi una volta attivata questa opzione dal pannello Nvidia , posso devidere in tutta autonomia se giocare alla mia solita risoluzione sensa DLSDR o se scegliere una nuova risoluzione che è comparsa, giusto? Non devo disattivarlo dal pannello nvidia per non usufruirne...
 
Ok, quindi una volta attivata questa opzione dal pannello Nvidia , posso devidere in tutta autonomia se giocare alla mia solita risoluzione sensa DLSDR o se scegliere una nuova risoluzione che è comparsa, giusto? Non devo disattivarlo dal pannello nvidia per non usufruirne...
Giusto giusto, no, non devi disattivare nulla.
 
Pubblicità
Pubblicità
Indietro
Top