UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Anche se ci spero poco AMD ha davvero a disposizione un calcio di rigore, anche se non credo che lo sfrutterà o per lo meno non al 100%

Questo tipo di politica non fa che spianare ponti d'oro al mercato console
E chi te lo dice che non abbiano accordi sottobanco proprio per lasciare spazio alle console nella fascia medio-bassa?
Io non sono un complottista, ma come diceva qualcuno a pensar male si fa peccato, ma spesso ci si azzecca
 
E chi te lo dice che non abbiano accordi sottobanco proprio per lasciare spazio alle console nella fascia medio-bassa?
Io non sono un complottista, ma come diceva qualcuno a pensar male si fa peccato, ma spesso ci si azzecca
da parte di Nvidia lo trovo difficile perchè va contro il loro stesso interesse, da parte di AMD è possibile visto che loro sono i fruitori dei chip per le console
 
Ad oggi se dovessi cambiare scheda video non andrei oltre una 3060ti/6700xt e rimanere sulla risoluzione 1080p.
Attendo con curiosità RDNA3 ma soprattutto le prime bollette
 
io al momento ho una 3070 Ti e gioco in 1440p, dal punto di vista degli fps puri non posso certo lamentarmi ma gli 8gb di vram mi hanno dato noie in alcuni giochi con stuttering continui a causa del saturamento e per questo motivo stavo considerando per il futuro una 4080 12gb giusto per togliermi questo fastidio e godere del dlss 3.0
 
Ad oggi se dovessi cambiare scheda video non andrei oltre una 3060ti/6700xt e rimanere sulla risoluzione 1080p.
Attendo con curiosità RDNA3 ma soprattutto le prime bollette
In 1080p e con quella cpu andresti a fare del bottleneck sia alla rtx 3060ti che alla rx 6700xt, inoltre quest'ultima non è una gpu per il 1080p.
 
io al momento ho una 3070 Ti e gioco in 1440p, dal punto di vista degli fps puri non posso certo lamentarmi ma gli 8gb di vram mi hanno dato noie in alcuni giochi con stuttering continui a causa del saturamento e per questo motivo stavo considerando per il futuro una 4080 12gb giusto per togliermi questo fastidio e godere del dlss 3.0
E tu sei sicuro che lo stuttering sia causato dalla vram satura in quei giochi di cui parli? Io no.... ma questo è alquanto offtopic
 
io al momento ho una 3070 Ti e gioco in 1440p, dal punto di vista degli fps puri non posso certo lamentarmi ma gli 8gb di vram mi hanno dato noie in alcuni giochi con stuttering continui a causa del saturamento e per questo motivo stavo considerando per il futuro una 4080 12gb giusto per togliermi questo fastidio e godere del dlss 3.0
Stiamo a dirne di tutti i colori sulla 4080 4070 12GB, ma evidentemente il marketing NVidia funziona (purtroppo!).

E tu sei sicuro che lo stuttering sia causato dalla vram satura in quei giochi di cui parli? Io no....
Quoto!
 
E tu sei sicuro che lo stuttering sia causato dalla vram satura in quei giochi di cui parli? Io no.... ma questo è alquanto offtopic
si, ho già fatto ricerche al riguardo ed è così per molta gente e non sono casi isolati

Stiamo a dirne di tutti i colori sulla 4080 4070 12GB, ma evidentemente il marketing NVidia funziona (purtroppo!).
beh per quanto mi riguarda potrebbe anche chiamarsi anche 4000 mia nonna o 4070 o 4020 e non mi farebbe differenza, sinceramente non mi fossilizzo sul fatto che sia stata chiamata impropriamente 80 ma preferisco concentrarmi sulle prestazioni e su quello che potrebbe offrirmi
 
La 4090 è una scheda che fa il vuoto su pannelli 4K 160 hz e superiori, ma sul 1440p e versioni UW(3440x1440) non scala affatto bene.
c37f7bd3e2676754989e51bc26270ab0.jpg



Inviato dal mio iPhone utilizzando Tapatalk Pro
 
La 4090 è una scheda che fa il vuoto su pannelli 4K 160 hz e superiori, ma sul 1440p e versioni UW(3440x1440) non scala affatto bene.
c37f7bd3e2676754989e51bc26270ab0.jpg



Inviato dal mio iPhone utilizzando Tapatalk Pro
Infatti è lo stesso "problema" di Ampere. Il grosso numero di cuda core crea un bottleneck a basse risoluzioni. Era già stata analizzata questa situazione con le rtx 3000, dove una rtx 3080 le prendeva da una rx 6800xt e rx 6900 in 1080p e 1440p ma poi batteva entrambe in 2160p.
Le rtx ampere e ada scalano tantissimo all'aumentare della risoluzione in quanto la grossa mole di dati da elaborare porta i cuda core ad essere sfruttati al 100%.
 
La 4090 è una scheda che fa il vuoto su pannelli 4K 160 hz e superiori, ma sul 1440p e versioni UW(3440x1440) non scala affatto bene.
c37f7bd3e2676754989e51bc26270ab0.jpg



Inviato dal mio iPhone utilizzando Tapatalk Pro
Non avevo dubbi... è un mostro ma solo se la sai usare: va accompagnata da un sistema high-end (12900K - 13900K - 7900X - 7950X, tutto ovviamente con ddr5) e da un monitor 4k con i controcog....i. Praticamente tutto il resto ti costa come la scheda. Per usarla come si deve (e come merita) bisogna mettere sul piatto almeno 4000 - 4500 euro se si parte da zero.

Poi arriveranno quelli "ma ho un bottleneck assurdoooo!!" perchè l'hanno montata insieme a un 3600X 🤣
 
@Mattia998 ti posso garantire che a parte qualche stupido settaggio, tipo texture pack in 4K ( inutili in 1440p ) nessun gioco porta ad saturare 8GB di vram.
Persino Cyberpunk 2077 in 1440p tutto al max e ray tracing al max ( come lo sto giocando io ) porta l'utilizzo di vram al di sotto dei 8GB.
Forse solo Horizon zero dawn di base satura più di 8Gb di vram ma perché ottimizzato male e le texture sono in 4K.
 
Pubblicità
Pubblicità
Indietro
Top