UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Lì nel Tom parla di "8gb troppo pochi in futuro per 1440p a dettaglio alto" e cita due sviluppatori che ha intervistato, alcuni benchmark, Steve di hw unbox, e "altri sviluppatori" non meglio definiti.

Tutti bugiardi ? 😆

Poi si possono abbassare i dettagli eh, non dico che la scheda esploda, però bisognerà farlo ed è bene saperlo prima.
No no, nessun bugiardo, ma invece di un articolo clickbait sarebbe più interessante sentire l’intervista allo sviluppatore. Probabilmente spiegherebbe meglio cosa intende.
Comunque che prima o poi gli 8 GB diventino stretti per il 1440P ci può stare. Ma come hai scritto pure tu, passare da Ultra ad High non è un dramma.

Si Max, non lo nego, è così!

Atomic Heart sarebbe ''NEXT GEN''??? si svolge in un corridoio, ti basta verificare la prima parte del gioco che si svolge all'aperto, ed in particolar modo nella foresta, lì gli fps scendono drasticamente.
Sono gli altri i giochi da prender come riferimento, ed ora avrai un altro assaggio con Alan Wake II ;)

@crimescene

Significa che c'è progresso, dato che c'è una maggior mole di dati da elaborare, ed i casi indotti dalla ''mala'' ottimizzazione sono pochi ;)
Atomic Heart è “next gen” quanto Hogwarts legacy: entrambi usano UE 4.
La tua logica è fallace in ogni singolo aspetto.
 
Ultima modifica:
Mamma mia tutti inalberati sugli 8gb qua 😆

State distorcendo quello che ho scritto più volte e che continuate a non leggere a quanto pare.

OTTO GB POCHI IN FUTURO PER 1440P DETTAGLI ALTI.
FUTURO + 8GB + DETTAGLI ALTI + 1440P = POCHI = MENO FPS

Vediamo se capite o se continuate a dire che 10gb bastano, che anche a 100fps si può giocare, che non serve cambiare scheda se hai 8gb e altre menate che io non ho mai contestato e su cui sono pure d'accordo 😆


Vaglielo a spiegare a @crimescene che continua a dire che è tutto falso e 8gb bastano e avanzano anche per quegli scenari sopra descritti.

Comunque vedremo in futuro.
Beh ma credo che stiate facendo discorsi diversi.
Io dico che se hai una scheda recente con 8 GB e giochi a 1440P, puoi tenertela ed al limite abbassi il dettaglio nei giochi che lo richiedono.
Ma allo stesso tempo dico che se devo comprare una scheda nuova OGGI, con il target del 1440P, vado a prendere minimo una 4070, ed ecco che i 12 GB di VRAM di certo non costituiranno un problema.
 
Avviso l'utenza che se comprate una RTX 4090 buttate i vostri soldi, le nuove RTX 50 "Blackwell" raddoppieranno le prestazioni di questa inutle scheda, con processo a 3nm, die monolitico, GDDR7 e rimpiazzerà gli ormai obsolet RT core con i nuovi PT core (PT = Path Tracing), PCIe 5.0, più VRAM, meno costose ecc. ecc. ecc.
è il progresso baby, vi lascio l'articolo, buona lettura e non godete troppo
#FantaHardware e dove trovarlo, in onda su Tom’s dal 12 Novembre 2024.

Punteranno sicuramente sul PT, ma parliamo di fanta hardware, inoltre sul 3nm di TMSC non ne sono sicuro, per me, dato che sono azionista Intel, farebbe piacere puntassero su Intel 20 A, ma c’è tempo ragazzi ;)
 
Continuiamo a confondere il vizio con la necessità, se su una media di giochi nuovi usciti 1 o 2, anche poco ottimizzati, su 20 richiedono un pò di VRAM in più di 8 gb casca così il mondo da cambiare scheda e spenderci fior di soldoni? Se a uno non gli va bene dover abbassare le texture o qualcosina che pesa alla VRAM su rari giochi che sono pure mal ottimizzati e si cambia la scheda si sta semplicemente arrogando il vizio di continuare a maxare tutto quel che esce, ma è veramente una necessità per tutti? Ma certo che no! Io non voglio essere prolisso nel discorso ma abbassare un pelo qualche parametro è tanto ingiocabile se non ai viziati del voglio maxare abbestia ogni cosa? Io fino ad ora, nei giochi giocati perlomeno, con la 2080 l'unica volta che ho avuto problemi di VRAM è con HL le prime due settimane. Che più avanti 8 gb in 1440p potranno essere di media pochini può essere, ma che oggi lo siano perchè su centinaia di giochi due o tre la sforano dai, non esageriamo, non facciamone una legge per tutti, siamo noi che vogliamo maxxare abbestia tutto, noi e basta! 😅 Il fatto che ne abbia 12 attualmente non vuol dire che non mi debba rendere conto che 8 bastano ancora sulla stragrande maggioranza dei casi in 1440p, perchè fino al mese scorso ne avevo 8 su una scheda di 5 anni fa e, al di là di HL, ho sempre quasi maxato tutto se non il DLSS a bilanciato e non a qualità, che mi dava comunque un'aspetto splendido al gioco. Da quando ho la 4070 ti l'unico vero sfizio con la VRam che mi sono preso è l'installare il pacchetto HD di Far Cry 6 e di forzare HL a girare bene con la forza bruta rispetto che con la 2080 anche quando ancora servivano ulteriori patch, per il resto sempre maxato ogni parametro se non il DLSS a bilanciato o automatico con 8 gb di VRAM della 2080.
 
Ultima modifica:
è il progresso baby, vi lascio l'articolo, buona lettura e non godete troppo
No, mi sa che sono i soliti rumors che poi vengono quasi sempre smentiti (purtroppo 🥹)

Dicono le stesse cose prima di ogni gen ormai.
Magari accade (io lo spero) ma non significano nulla al momento.
Ormai l'ho imparato pure io dopo RDNA3 😢

Le ddr7 nvidia probabilmente le aspetta per poter usare bus più piccoli senza ridurre la larghezza di banda (è una tendenza ormai manifesta). In quel modo può fare I/O più piccoli e quindi risparmiare spazio sui dies che con TCMS 3nm costerà non poco.

I die monolitici non sono un vantaggio.

Meno costose non vedo perché, dato che i 3nm e le ddr7 costeranno sicuramente di più.
Se accadrà sarà per le bastonate che sperabilmente gli infliggerà il mercato (non comprando) non per "design".

PCIE 5.0 non vedo quali benefici porterebbe rispetto alla 4.0. Forse il fatto di poter usare meno linee a parità di larghezza di banda che però è comunque più che sufficiente già col 4.0. Quindi prestazionalmente irrilevante temo.
 
Segui il mio ragionamento:
È da poco dopo che sono uscite le 3000 che ce la menano che "arrivano i giochi next gen"... Si ma quando: io finora ho visto solo remake o porting, fatti anche male per giunta.
Poi lui che ci dice che bisogna comprare 4000 perché "arrivano i giochi next gen", quindi bisogna essere future proof. però dall'altra parte dice che le 4000 servono adesso.
Io non capisco, servono adesso o per i cosiddetti next gen? Boh sinceramente mi sono stancato😉
È da quando sono uscite PS4 e XONE che è iniziata l’era dei remake/remastered
 
Avviso l'utenza che se comprate una RTX 4090 buttate i vostri soldi, le nuove RTX 50 "Blackwell" raddoppieranno le prestazioni di questa inutle scheda, con processo a 3nm, die monolitico, GDDR7 e rimpiazzerà gli ormai obsolet RT core con i nuovi PT core (PT = Path Tracing), PCIe 5.0, più VRAM, meno costose ecc. ecc. ecc.
è il progresso baby, vi lascio l'articolo, buona lettura e non godete troppo
Ma non c'è stato un salto simile da 3090 a 4090?
Non su tutti i giochi chiaramente ma mi pare di aver visto si va da un minimo di +50/60% al +100% in alcuni casi.
Altra domanda, il fatto che saranno pcie5 comporterà il dover cambiare tutto il sistema? O sarà retrocompatibile?
Sul meno costose finchè non escono ci credo poco ma fare peggio lato prezzo è difficile, magari costeranno poco di meno.
 
E con questa immagine con un bel FONDO DI VERITÀ,

Si però come sei old ... oggigiorno è OnlyFans la regina della manovella 😂

vi auguro una buona e serena Pasqua a voi e famiglia!
Grazie! Buona Pasqua e buona Domenica a te e a tutti gli utenti del forum 😉👍
--- i due messaggi sono stati uniti ---
Una 3080 boccheggia a 1440P ? Siamo al delirio… 🤦🏻‍♂️
@Lorenzo Lanas , vedi che sbagliavi? Purtroppo non trolla.
tumblr_n4otpo41rr1s7u658o1_500.gif

Ma in questo forum non ce ne sta uno sano 🤣
 
Ebbene signori e signore, mentre faccio il barbecue guardo anche questo:
Quanto detesto aver ragione, no, non è vero, sarei un ipocrita ad affermare ciò, riformulo, QUANTO GODO AD AVER RAGIONE.
Buona Pasquetta a tutti, dal MASTER per oggi, è tutto.
P.s. Non postatemi bench di giochi del 2019 per favore, #NonCeLaFaccioPiù @crimescene
#8GbVramPerl’OttoKappaVannoBene
 
Ebbene signori e signore, mentre faccio il barbecue guardo anche questo:
Quanto detesto aver ragione, no, non è vero, sarei un ipocrita ad affermare ciò, riformulo, QUANTO GODO AD AVER RAGIONE.
Buona Pasquetta a tutti, dal MASTER per oggi, è tutto.
P.s. Non postatemi bench di giochi del 2019 per favore, #NonCeLaFaccioPiù @crimescene
#8GbVramPerl’OttoKappaVannoBene
Ma in realtà ieri sera giocavo a TLOU dettagli max-ultra e mi alllocava 9.1 GB e usati 7.2 GB. Dlss qualità - 90-100 fps di media. Tranne un crash subito dopo 2 minuti nel prologo, zero problemi.
 
Ebbene signori e signore, mentre faccio il barbecue guardo anche questo:
Quanto detesto aver ragione, no, non è vero, sarei un ipocrita ad affermare ciò, riformulo, QUANTO GODO AD AVER RAGIONE.
Buona Pasquetta a tutti, dal MASTER per oggi, è tutto.
P.s. Non postatemi bench di giochi del 2019 per favore, #NonCeLaFaccioPiù @crimescene
#8GbVramPerl’OttoKappaVannoBene
beh un video che confronta la 6800 con una 3070 per far vedere che inr aster la 6800 va di più è estremamente di parte, in un canale che incensa da sempre le schede amd

La 3070 è una scheda che confrontata con la 6800 è ovviamente svantaggiata ma per via del chip non per via della vram

Fai un confronto serio con la 6700xt
 
Pubblicità
Pubblicità
Indietro
Top