UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Io giustificarmi??? ahahahahahh
Non mi giustifico davanti a nessuno :)
Avevo voglia di cambiare tutto qui, ma soprattutto necessitavo di una GPU più potente per il RT, e l'unica valida in grado di darmi un bel salto prestazionale era appunto la 4090.
Apro una parentesi, i 10GB della 3080 sono insufficienti per gestire i prossimi giochi a 1440p con RT maxato, in cinque mesi due giochi lo hanno dimostrato(HL ed A Plague Tale Requiem in RT), ma ci risentiremo sicuramente su questa tematica, ora annotate questo commento ;)
Ma queste idee per caso te le messe in testa Leonardo di Caprio entrando nel cervello mentre dormivi stile inception 🤣🤣🤣 se no non si spiega
 
credimi questo è falso nessun gioco in 1440p necessita davvero di tanta vram non lo dico io lo dicono gli stessi sviluppatori degli stessi giochi

Che la scheda "alloca" il massimo della VRAM che hai disponibile è normale, non significa nulla!

L'unica cosa che dimostrano quei giochi è un pessimo lancio ed ottimizzazione al d1 e non ci sono solo quelli, perchè i problemi su quei giochi ci sono con tutte le schede grafiche, mentre come per magia su console sono molti di meno
Buona fortuna nel convincerlo 😂.
 
Buona fortuna nel convincerlo 😂.
ma io non voglio convincere nessuno esistono i file config dei giochi dove ci sta pure scritto il limite fisico di allocazione della vram utilizzata che poi cambia pure a seconda della scheda video rilevata dal sistema

Uno può credere a quello che vuole i fatti sono fatti.

Al momento esiste un solo gioco che SOLO scaricando le texture pack 4k super ultra definite a parte ha bisogno di più di 10 GB di memora video (e guarda caso gli stessi sviluppatori lo dicono che ci vuole uan scheda con almeno 11/12 GB)

Texture fatte appositamente al tempo per chi aveva una 2080 ti che altrimenti tutta quella memeoria video non l'avrebbero mai sfruttata, ed è far cry 6

Ma ripeto si scaricano a parte e sono texture 4k (inutile su un 1440p)
 
Ultima modifica:
I problemi con le vram si avevano anni fa ai tempi delle 780 ti, 970.. La. Vram era talmente risicata che anche solo mezzo gb un più faceva la differenza ma ora con schede video del genere non esiste gioco che saturi la vram a partire da una 3080 in su
 
ma io non volgio convincere nessuno esistono i file config dei giochi dove ci sta pure scritto il limite fisico della vram utilizzata

Uno può credere a quello che vuole i fatti sono fatti.

Al momento esiste un solo gioco che SOLO scaricando le texture pack 4k super ultra definite a parte ha bisogno di più di 10 GB di memora video (e guiarda caso gli stessi sviluppatori lo dicono che ci vuole uan scheda con almeno 11 GB)

Texture fatte appositamente al tempo per chi aveva una 2080 ti che altrimenti tutta quella memeoria video non l'avrebbero mai sfruttata, ed è far cry 6

Ma ripeto si scaricano a parte e sono texture 4k
Puoi anche portare i fatti, le prove inconfutabili, puoi persino invitare gli ingegneri di Nvidia/AMD a certificare che ciò che stai dicendo è vero ma nulla cambia.
Il 99,9999999% degli utenti del forum la pensano come te, il 0,00000@Kal El la pensa diversamente.
😂

A parte gli scherzi l'unico caso in cui ho visto la rtx 3080 10GB creare stuttering per via della vram è stato su Doom Eternal in 4K nativo tutto al max, ray tracing e compreso le texture pack 4K applicate.
Nel test appena hanno tolto il texture pack 4K si è tornati a stare sotto i 10GB. Ma stiamo parlando di casi estremi e non di risoluzioni inferiori come il 1440p e 1080p dove persino 8GB di vram bastano.
 
se uno ha i soldi da spendere è può ha tutti il diritto di comprare ciò che più lo soddisfa, ma non venitemi a raccontare che una 3080 non basta per giocare perchè rido da qui all'eternità
Certo che è sufficiente, ma i 10Gb di Vram sono un problema non da poco, purtroppo, soprattutto in RT.
L'obsolescenza programmata è una brutta bestia, ed è una delle cose che meno tollero.
Ero orgogliosissimo della mia 3080, ma quando ho notato che cominciava ad ''arrancare'' in RT, dovendo quindi andare di DLSS anche su bilanciato o impostare il RT su medio, o togliere ad esempio Rt shadow, sono giunto alla conclusione che era arrivato il momento di cambiarla.
Ho così sfruttato ancora il mercato ''dopato'', rivendendola a poco meno del prezzo di acquisto.
 
Ma io non so voi, ultimamente stanno uscendo video su Youtube che riprendono per filo e per segno discussioni che stiamo facendo noi qui sul forum (ps5 vs pc, giochi rotti su pc etc etc), non so se sia una casualità o se le nostre discussioni siano seguite anche da questi youtubers che poi prendono spunto perchè escono quasi in simultanea, noi parliamo di certe cose e loro uno o due giorni dopo cacciano fuori video che parlano degli argomenti di cui abbiamo appena discusso sul forum! Sono io che sto in crisi mistica o ci avete pensato pure voi 😆 ? Tra l'altro sul penultimo video di Prodigeek fanno proprio riferimento ad un articolo di Tom's e nemmeno in maniera lusinghierissima..
 
Certo che è sufficiente, ma i 10Gb di Vram sono un problema non da poco, purtroppo, soprattutto in RT.
L'obsolescenza programmata è una brutta bestia, ed è una delle cose che meno tollero.
Ero orgogliosissimo della mia 3080, ma quando ho notato che cominciava ad ''arrancare'' in RT, dovendo quindi andare di DLSS anche su bilanciato o impostare il RT su medio, o togliere ad esempio Rt shadow, sono giunto alla conclusione che era arrivato il momento di cambiarla.
Ho così sfruttato ancora il mercato ''dopato'', rivendendola a poco meno del prezzo di acquisto.
Per la maggior parte degli utenti sta bene abbassare qualche settaggio, rt compreso o applicare il dlss quindi ci sta che nel tuo caso hai voluto fare cosi, credimi lo sto dicendo seriamente, non hai sbagliato poiché tu puntavi a qualcosa che la rtx 3080 non poteva darti, ma sarai d'accordo con me che venire sul forum a scrivere che la rtx 3080 non è abbastanza per rt in 1440p è un po una cavolata.
Ribadisco è una cavolata poiché la maggior parte degli utenti non si fanno problemi a scendere a qualche compromesso a differenza tua o di altri utenti molto esigenti, quindi è corretto dire che la rtx 3080 è un ottima gpu per il 1440p.
--- i due messaggi sono stati uniti ---
Poi se non sei d'accordo, va bene cosi, ma mi permetto solo di dire che in questo caso non sai distinguere l'oggettivo dal soggettivo.
 
Per la maggior parte degli utenti sta bene abbassare qualche settaggio, rt compreso o applicare il dlss quindi ci sta che nel tuo caso hai voluto fare cosi, credimi lo sto dicendo seriamente, non hai sbagliato poiché tu puntavi a qualcosa che la rtx 3080 non poteva darti, ma sarai d'accordo con me che venire sul forum a scrivere che la rtx 3080 non è abbastanza per rt in 1440p è un po una cavolata.
Ribadisco è una cavolata poiché la maggior parte degli utenti non si fanno problemi a scendere a qualche compromesso a differenza tua o di altri utenti molto esigenti, quindi è corretto dire che la rtx 3080 è un ottima gpu per il 1440p.
--- i due messaggi sono stati uniti ---
Poi se non sei d'accordo, va bene cosi, ma mi permetto solo di dire che in questo caso non sai distinguere l'oggettivo dal soggettivo.
Certo certo, ci sta, nulla da obiettare ;)
 
Certo certo, ci sta, nulla da obiettare ;)
Cyberpunk 2077 lo riesci a tenere in 1440p nativo, tutto al max, rt compreso stando sopra a 60fps?
Chiedo per curiosità.
Io riesco a tenerlo cosi solo se metto il dlss su bilanciato, mentre se porto l'rt su alto invece che max, posso tenere il dlss su qualità e stare sopra i 60 con rari casi in cui scendo al di sotto.
 
Però se io avessi avuto una 3080 e fossi dovuto scendere a dei compromessi mi sarebbero girate troppe le p.. Ma poi ragionandoci bene, non è colpa della scheda ma dei pochi giochi che sono davvero rotti, e lo sono con tutte le schede, quindi non avrei assolutamente cambiato mene sarei fatto una ragione
 
Comunque sia, non c'è nulla di male se uno per sè stesso vuole 200 fps, vuole il dlss3 o l'ultima fiamma enthusiast, alla fine ognuno è giudice di sè stesso e fa le cose in base alle finanze che ha! Se una cosa ti soddisfa e tu te lo puoi permettere va benissimo così!

L'unica cosa che cercherei di evitare è di cercare convincere gli altri che se non giochi a DLSS OFF i giochi fanno schifo o non sono considerabili "maxati", che se non fai 170 fps non puoi goderti le cose come vorresti etc etc, non parlo di Kal El specifichiamo, per niente, ma approfitto di prendere la palla al balzo per togliermi un sassolino su concetti che ho visto tante volte. Ci sta il gaming estremo e viziato, non è una nota di demerito, uno magari ha quella come passione primaria e ci spende sopra anzichè spenderlo in altro, però l'importante è non far passare il messaggio che se non hai un computer della Nasa non puoi goderti un gioco veramente o te lo godi male!
 
Cyberpunk 2077 lo riesci a tenere in 1440p nativo, tutto al max, rt compreso stando sopra a 60fps?
Chiedo per curiosità.
Deve arrivare ancora, per questo sono nervoso XD
Comunque, dovrebbe farcela vedendo online, ricordo quando lo giocai con la 3080 e facevo delle prove fra nativo e dlss, e nel primo caso i dettagli da vicino e come la luce si distribuiva era di un altro livello.
Appena arriva proverò, comunque sta per arrivare la versione overdrive di Cyberpunk 2077, che sicuramente inchioderà anche la 4090, salvo che non si faccia utilizzo di DLSS3.
--- i due messaggi sono stati uniti ---
Però se io avessi avuto una 3080 e fossi dovuto scendere a dei compromessi mi sarebbero girate troppe le p.. Ma poi ragionandoci bene, non è colpa della scheda ma dei pochi giochi che sono davvero rotti, e lo sono con tutte le schede, quindi non avrei assolutamente cambiato mene sarei fatto una ragione
Purtroppo, se dovessimo attribuire una colpa, quella va proprio al RT, è una tech che chiede risorse che possono tendere anche all'infinito.
Con questa tech, per quanto bella essa sia, porta ad aggiornare ad ogni gen, salvo di non cominciare a scendere a compromessi che possano includere anche il non utilizzo del RT.
Io non consiglio a nessuno di comprare con questi prezzi fuori di testa, tuttavia, la 4090 è la ''meno peggio'' fra tutte le lovelace, per via del chip che monta e delle performance che essa stessa porta.
 
Ultima modifica:
Deve arrivare ancora, per questo sono nervoso XD
Comunque, dovrebbe farcela vedendo online, ricordo quando lo giocai con la 3080 e facevo delle prove fra nativo e dlss, e nel primo caso i dettagli da vicino e come la luce si distribuiva era di un altro livello.
Appena arriva proverò, comunque sta per arrivare la versione overdrive di Cyberpunk 2077, che sicuramente inchioderà anche la 4090, salvo che non si faccia utilizzo di DLSS3.
Bhe spero che andrai a condividere qualche bench di giochi con RT ecc Ci stava un altro utente con la rtx 4090 ma voleva dei soldi per la condivisione di bench roba da matti 😂, penso che te ne saremo tutti grati. Aspetto anche quelli di @Max(IT) appena ne ha voglia e tempo, poiché ho voglia di capire quanti benefici potrebbe dare in 1440p la 4080, anzi forse sarebbe più corretto dire quanti sacrifici in meno per potersi godere un titolo con rt attivo, dove ovviamente è stato implementato bene.
 
Comunque sia, non c'è nulla di male se uno per sè stesso vuole 200 fps, vuole il dlss3 o l'ultima fiamma enthusiast, alla fine ognuno è giudice di sè stesso e fa le cose in base alle finanze che ha! Se una cosa ti soddisfa e tu te lo puoi permettere va benissimo così!

L'unica cosa che cercherei di evitare è di cercare convincere gli altri che se non giochi a DLSS OFF i giochi fanno schifo o non sono considerabili "maxati", che se non fai 170 fps non puoi goderti le cose come vorresti etc etc, non parlo di Kal El specifichiamo, per niente, ma approfitto di prendere la palla al balzo per togliermi un sassolino su concetti che ho visto tante volte. Ci sta il gaming estremo e viziato, non è una nota di demerito, uno magari ha quella come passione primaria e ci spende sopra anzichè spenderlo in altro, però l'importante è non far passare il messaggio che se non hai un computer della Nasa non puoi goderti un gioco veramente o te lo godi male!
Giusto giusto, il Dlss rende a seconda di come viene implementato nei diversi engine dai vari Devs.
Ad esempio, su Cyberpunk 2077 è fantastico, ma porta comunque ad una perdita di dettagli rispetto al nativo, prova, vai in un locale notturno a Night City, dove ci sono tanti led che riflettono sul viso e vestiti di un NPC, poi fai uno screen con dlss e senza dlss(con rt attivo), guarda come cambia la restituzione della luce dai materiali e come quanti più dettagli emergono.
Poi ci sono anche giochi dove il DLSS è improponibile, come Control, a causa dei pochi raggi traccianti a bassa risoluzione i riflessi sono un continuo ''lampeggiare''(shimmering), tuttavia il gioco gira bene da una 3080 in su a 1440p senza DLSS e con RT On.
Non si può generalizzare, ma il DLSS è un tech necessaria oggi per far girare bene il RT sull'HW, ma è anche abusato dai DEVS, i quali con la scusante di tech di uscaling non ottimizzano più in modo efficace, ''tanto c'è il dlss'', chi ce lo fa fare di ottimizzare???
E gli ultimi giochi usciti, lo dimostrano!
--- i due messaggi sono stati uniti ---
Bhe spero che andrai a condividere qualche bench di giochi con RT ecc Ci stava un altro utente con la rtx 4090 ma voleva dei soldi per la condivisione di bench roba da matti 😂, penso che te ne saremo tutti grati. Aspetto anche quelli di @Max(IT) appena ne ha voglia e tempo, poiché ho voglia di capire quanti benefici potrebbe dare in 1440p la 4080, anzi forse sarebbe più corretto dire quanti sacrifici in meno per potersi godere un titolo con rt attivo, dove ovviamente è stato implementato bene.
Come volevba dei soldi??? ahahahhaahha
Sisi li condividerò ;)
 
Pubblicità
Pubblicità
Indietro
Top