UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
ma quali effetti ?
Siamo seri... la 4070 Ti in 4K si mangia la 6800XT e la 6900XT.

average-fps_3840-2160.png


perde qualcosa rispetto alla 3090Ti, certo, ma se vuoi una scheda da 4K vero è la 4080 che costa un botto.
Io ho scritto che la 4070Ti è il minimo per il 4K , se vogliamo parlare sul lungo termine.
Non che sia la scheda ideale.

Mi fa ridere che critichiate i 900 euro: la 6800XT quando è uscita quanto costava ? Ora te la tirano dietro perché non se la fila nessuno...
Anche io la vorrei a 700 euro, ma questo è il mercato purtroppo.
Attenzione, io non sto paragonando la 4070 Ti con la 6800 XT. Sto dicendo semplicemente che oggi il minimo per il 4K@60 non-RT è la 6800 XT perché permette di giocare a tutto. La 4070 Ti è ancora meglio, ma non è una scheda da 4K entry level. È una scheda da 4K@60+, oppure da 4k con RT attivo e DLSS quality. È il 13600K delle GPU, lo sweet spot nella nuova generazione, ma non è né il miglior affare in termini assoluti, né il minimo che ti serve per giocare dignitosamente a quella risoluzione, né un qualcosa che metti nel case e ti tira fuori 4K@60 da adesso fino all'uscita di PS6.

Di investimenti a lungo termine in ambito GPU non ne esistono e mai sono esistiti. E se proprio vogliamo prendere un esempio che ci si avvicina allora direi addirittura la 4090, perché ha delle performance di 2 generazioni avanti rispetto a RDNA 2 e Ampere. Chiaramente solo per chi utilizza le banconote come carta igienica...
 
Attenzione, io non sto paragonando la 4070 Ti con la 6800 XT. Sto dicendo semplicemente che oggi il minimo per il 4K@60 non-RT è la 6800 XT perché permette di giocare a tutto. La 4070 Ti è ancora meglio, ma non è una scheda da 4K entry level. È una scheda da 4K@60+, oppure da 4k con RT attivo e DLSS quality. È il 13600K delle GPU, lo sweet spot nella nuova generazione, ma non è né il miglior affare in termini assoluti, né il minimo che ti serve per giocare dignitosamente a quella risoluzione, né un qualcosa che metti nel case e ti tira fuori 4K@60 da adesso fino all'uscita di PS6.

Di investimenti a lungo termine in ambito GPU non ne esistono e mai sono esistiti. E se proprio vogliamo prendere un esempio che ci si avvicina allora direi addirittura la 4090, perché ha delle performance di 2 generazioni avanti rispetto a RDNA 2 e Ampere. Chiaramente solo per chi utilizza le banconote come carta igienica...
Per me il concetto di 4K “entry level” non esiste. Se decidi di giocare in 4K, lo fai sapendo di dover investire soldoni in Hardware.
Chiaro che se hai una 6800XT te la tieni, non la cambi di sicuro adesso, ma se oggi devi prendere una scheda per il 4K, non la considererei proprio.

L’investimento “a lungo termine” è inteso nel senso di aspettativa di vita tipica di una VGA, che per me è sui 3/4 anni al massimo. Se devi acquistare oggi una scheda per giocare in 4K per 3 anni, la 4070Ti è il minimo da considerare.
 
il PC servirà per lavoro, altrimenti non avrebbe preso 128 GiB, certo la scheda madre con una RTX 4090 e i9-13900K fa davvero ridere
Esatto, fanno topografia.
Se ne presero un altro sempre con i9 13900K rtx 4080 + 128gb per fare la stessa cosa
 
Per me il concetto di 4K “entry level” non esiste. Se decidi di giocare in 4K, lo fai sapendo di dover investire soldoni in Hardware.
Chiaro che se hai una 6800XT te la tieni, non la cambi di sicuro adesso, ma se oggi devi prendere una scheda per il 4K, non la considererei proprio.

L’investimento “a lungo termine” è inteso nel senso di aspettativa di vita tipica di una VGA, che per me è sui 3/4 anni al massimo. Se devi acquistare oggi una scheda per giocare in 4K per 3 anni, la 4070Ti è il minimo da considerare.
Perché il concetto di entry level non dovrebbe esistere? Tutte le risoluzioni hanno delle fasce di prezzo di riferimento, chiaro poi che per il 4K non puoi puntare su una GPU di fascia medio-bassa. Dire che oggi per giocare in 4K serve minimo una 4070 Ti imho è sbagliato. In 4K puoi giocarci anche con una 3070 volendo, basta soltanto lavorare bene con le impostazioni grafiche.

A mio avviso l'esperienza "entry level" nel senso di PC gaming significa giocare a 60fps stabili a dettagli grafici che restituiscono un impatto visivo massimo o indistinguibile da esso (tipo ombre su High invece che su Ultra che non hanno alcun impatto visivo ma ti fanno risparmiare 10fps).

Detto questo, oggigiorno non sceglierei una 3070/Ti per il 4K perché siamo nel mezzo di un periodo di transizione in cui i giochi, a quelle risoluzioni, cominciano a saturare gli 8GB di memoria. E se pensate che HL, RE4 e TLOU siano delle eccezioni, e che in futuro i giochi continueranno comunque a rientrare negli 8GB, vi faccio un grande in bocca al lupo.

Per questo per me bisogna partire dalla 6800 XT/ RTX 3080. La 4070 Ti è sicuramente meglio, ma costa 300€ in più, e a mio avviso quel grosso investimento non ripagherà per tanto tempo, dato l'enorme e inaccettabile decadimento di performance in 4K rispetto alle altre risoluzione visibile già ora. Se le sopraccitate GPU fra (diciamo) 1 anno costringeranno ad abbassare la qualità visiva in maniera vistosa per garantire i 60fps, la 4070 Ti lo farà fra 2 anni. Con i giochi che usciranno tra 3/4 anni, anche la 4070 Ti sarà tagliata fuori. Quindi no, per me la 4070 Ti è una scheda per giocare in maniera ottimale con il RT in 4K e DLSS attivo, ma NON è un investimento a lungo termine per il 4K.

Se Nvidia avesse deciso di non castrare questa scheda con quel bus probabilmente lo sarebbe stata, ma chi spende quei 3-400€ in più rispetto alla fascia sweet Spot delle 3070/Ti/6800/XT, è importante che sia consapevole del fatto che lo fa per avere l'esperienza gaming ultimate OGGI, non fra 3/4 anni.
 
Giusto per dare dei numeri a quanto affermato in precedenza. Questa è la situazione dei giochi più pesanti usciti da inizio 2023 ad oggi:

performance-3840-2160.png

performance-3840-2160.png

performance-3840-2160.png

performance-3840-2160.png


Riassunto: in 4K tra una 6800 XT (600€) e una 4070 Ti (900€) stiamo parlando di differenze che vanno da 3 a 7fps! Dove la 6800 XT è sotto i 60 lo è anche la 4070 Ti, dove la 4070 Ti è sopra i 60 lo è anche la 6800 XT. Questa è una fotografia della situazione che ci possiamo aspettare da questo anno in poi, che lo vogliamo o meno.

Sto dicendo che la 4070 Ti non sia migliore di una 6800 XT? Assolutamente NO! La 4070 Ti la distrugge in 2K e in RT. Quello che sto dicendo è che scegliere la 4070 Ti per un investimento a lungo termine per il 4K è un gioco che non vale la candela. L'amara verità è che l'unica scheda future proof che si vede in questi grafici è la 4090.
 
Giusto per dare dei numeri a quanto affermato in precedenza. Questa è la situazione dei giochi più pesanti usciti da inizio 2023 ad oggi:

performance-3840-2160.png

performance-3840-2160.png

performance-3840-2160.png

performance-3840-2160.png


Riassunto: in 4K tra una 6800 XT (600€) e una 4070 Ti (900€) stiamo parlando di differenze che vanno da 3 a 7fps! Dove la 6800 XT è sotto i 60 lo è anche la 4070 Ti, dove la 4070 Ti è sopra i 60 lo è anche la 6800 XT. Questa è una fotografia della situazione che ci possiamo aspettare da questo anno in poi, che lo vogliamo o meno.

Sto dicendo che la 4070 Ti non sia migliore di una 6800 XT? Assolutamente NO! La 4070 Ti la distrugge in 2K e in RT. Quello che sto dicendo è che scegliere la 4070 Ti per un investimento a lungo termine per il 4K è un gioco che non vale la candela. L'amara verità è che l'unica scheda future proof che si vede in questi grafici è la 4090.

Io concordo con il tuo ragionamento con alcuni "ma", quello che mette fuori gioco le Nvidia al momento è sempre il prezzo, una 6800 xt te la porti a casa a meno di 600 euro al momento, il che non è male, calcolando anche i 16gb di vram, vedremo la 4070 liscia ma per me starà sui 700 euro con la TI sui 900, e non è poco....

Però e sottolineo però, quello che fà la differenza come detto sono l'RT ( che può interessare o meno ) e le DLSS, sulla 4070 hai le DLSS3 che per quel che si è visto danno un boost abbastanza impressionante, poi c'è da vedere quali e quanti giochi implementeranno tale tecnologia chiaramente.

Poi c'è l'incognita dei driver, io non ho una GPU Amd dai tempi della RTX 580, ma qui ( e non solo ) ne leggo di tutti i colori sulla questione stabilità driver e aggiornamenti che creano problemi, ma eventualmente anche questo ha un peso sull'acquisto.
 
Giusto per dare dei numeri a quanto affermato in precedenza. Questa è la situazione dei giochi più pesanti usciti da inizio 2023 ad oggi:

performance-3840-2160.png

performance-3840-2160.png

performance-3840-2160.png

performance-3840-2160.png


Riassunto: in 4K tra una 6800 XT (600€) e una 4070 Ti (900€) stiamo parlando di differenze che vanno da 3 a 7fps! Dove la 6800 XT è sotto i 60 lo è anche la 4070 Ti, dove la 4070 Ti è sopra i 60 lo è anche la 6800 XT. Questa è una fotografia della situazione che ci possiamo aspettare da questo anno in poi, che lo vogliamo o meno.

Sto dicendo che la 4070 Ti non sia migliore di una 6800 XT? Assolutamente NO! La 4070 Ti la distrugge in 2K e in RT. Quello che sto dicendo è che scegliere la 4070 Ti per un investimento a lungo termine per il 4K è un gioco che non vale la candela. L'amara verità è che l'unica scheda future proof che si vede in questi grafici è la 4090.
hai preso 3 pessimi esempi, non sono 3 giochi "pesanti"sono 3 giochi ottimizzati male compreso dead space quindi quei grafici sono abbastanza fasulli


Per tutti e 3 i giochi la situazione attuale è molto diversa, HL in particolare con la 3080 SENZA RT aveva cali che arrivavano a 40 fps, oggi nelgi stessi posti ne fa 120 con RT

PEr vedere una situazine piu relaistica devi vedere le perfoprmance "relaticve"

1680855211594.png

Non si tratta di qualche fps come affermi in 4k e io la vedo come @Max(IT), per il 4k è presto sia come risoluzione da prendere in considerazione sia per gli stessi monitor, oppure la 4070ti è come direi "minimo sindacale" per quella risoluzione se vuoi una scheda che duri


Detto questo qui siamo abbondantemente off topic, il 3d parla di una scheda per il 1080p non per il 4k


Anche TLOU è un pessimo esempio, TLOU poi ha altri problemi come già detto e ridetto, se si vede il topic ufficiale si capisce come TLOU richiede risorse assurde senza motivazione, segnale evidente di un lavoro non finito e di una mancata "pulizia"

RE4 poi è un angine che ha il contatore VRAM ( da motlisismo tempo anche gli altri remake) e fa credere alle persone che servano 13 gb di vram per farlo girare quanto sono sufficienti 8GB
 
Ultima modifica:
Io concordo con il tuo ragionamento con alcuni "ma", quello che mette fuori gioco le Nvidia al momento è sempre il prezzo, una 6800 xt te la porti a casa a meno di 600 euro al momento, il che non è male, calcolando anche i 16gb di vram, vedremo la 4070 liscia ma per me starà sui 700 euro con la TI sui 900, e non è poco....

Però e sottolineo però, quello che fà la differenza come detto sono l'RT ( che può interessare o meno ) e le DLSS, sulla 4070 hai le DLSS3 che per quel che si è visto danno un boost abbastanza impressionante, poi c'è da vedere quali e quanti giochi implementeranno tale tecnologia chiaramente.

Poi c'è l'incognita dei driver, io non ho una GPU Amd dai tempi della RTX 580, ma qui ( e non solo ) ne leggo di tutti i colori sulla questione stabilità driver e aggiornamenti che creano problemi, ma eventualmente anche questo ha un peso sull'acquisto.
Infatti sono il primo a dire che una 4070 liscia piazzata bene potrebbe essere davvero interessante. Tutto il ragionamento fatto non è volto a decretare quale sia la migliore scheda, bensì ad analizzare se la 4070 Ti sia un investimento da fare in ottica di giocare in futuro in 4K nativi. Se invece si parla di tecnologie, il DLSS3 ce l'ha la 4070 Ti come ce l'avrà la 4070 liscia. Quindi anche se venisse piazzata in EU a 700€, comunque lo reputerei un acquisto più sensato di una 4070 Ti a 900€.

Per quanto riguarda i driver io non ho problemi con la mia, ma l'esperienza del singolo non fa la verità assoluta.

hai preso 3 pessimi esempi, non sono 3 giochi "pesanti"sono 3 giochi ottimizzati male compreso dead space quindi quei grafici sono abbastanza fasulli


Per tutti e 3 i giochi la situazione attuale è molto diversa, HL in particolare con la 3080 SENZA RT aveva cali che arrivavano a 40 fps, oggi nelgi stessi posti ne fa 120 con RT

PEr vedere una situazine piu relaistica devi vedere le perfoprmance "relaticve"

Visualizza allegato 457126

Non si tratta di qualche fps come affermi in 4k e io la vedo come @Max(IT), per il 4k è presto sia come risoluzione da prendere in considerazione sia per gli stessi monitor, oppure la 4070ti è come direi "minimo sindacale" per quella risoluzione se vuoi una scheda che duri


Detto questo qui siamo abbondantemente off topic, il 3d parla di una scheda per il 1080p non per il 4k


Anche TLOU è un pessimo esempio, TLOU poi ha altri problemi come già detto e ridetto, se si vede il topic ufficiale si capisce come TLOU richiede risorse assurde senza motivazione, segnale evidente di un lavoro non finito e di una mancata "pulizia"
Le relative performance contengono anche dati di giochi usciti 3-4 anni fa. Se vuoi avere un'idea più definita della situazione futura (perchè è di questo che stiamo parlando) bisogna isolare solo i titoli usciti di recente. Finora TUTTE le uscite da dicembre ad oggi presentano uno scenario simile a quello mostrato dai grafici precedenti, con l'eccezione di Atomic Heart. Titoli mal ottimizzati? Sicuramente. Ma pensi davvero che d'ora in poi, dopo aver visto 4-5 uscite di fila usciti in queste condizioni, la situazione sarà diversa?
 
Perché il concetto di entry level non dovrebbe esistere? Tutte le risoluzioni hanno delle fasce di prezzo di riferimento, chiaro poi che per il 4K non puoi puntare su una GPU di fascia medio-bassa. Dire che oggi per giocare in 4K serve minimo una 4070 Ti imho è sbagliato. In 4K puoi giocarci anche con una 3070 volendo, basta soltanto lavorare bene con le impostazioni grafiche.

se hai preso una 3070 per giocare in 4K, hai sbagliato dal principio. Oggi puoi farlo ? Certo, con dettagli medi puoi farlo.
Ma quello non è "entry level"... è un adattarsi per via di un acquisto errato.
Che la 3070 non fosse idonea al 4K lo si sapeva anche nel 2020 quando è uscita.

A mio avviso l'esperienza "entry level" nel senso di PC gaming significa giocare a 60fps stabili a dettagli grafici che restituiscono un impatto visivo massimo o indistinguibile da esso (tipo ombre su High invece che su Ultra che non hanno alcun impatto visivo ma ti fanno risparmiare 10fps).

Detto questo, oggigiorno non sceglierei una 3070/Ti per il 4K perché siamo nel mezzo di un periodo di transizione in cui i giochi, a quelle risoluzioni, cominciano a saturare gli 8GB di memoria. E se pensate che HL, RE4 e TLOU siano delle eccezioni, e che in futuro i giochi continueranno comunque a rientrare negli 8GB, vi faccio un grande in bocca al lupo.

Il fatto che OGGI, HL sia perfettamente giocabile a 1440P con 8 GB di VRAM lo ignoriamo bellamente vero ?
E guarda caso i possessori di schede Radeon, che hanno il frame buffer come unico punto di forza, tendono ad ignorarlo più di altri 😏
RE4 gira a 1440P con una 3070, ed anche li le patch stanno risolvendo i problemi.

resta TLOU, ma è solo questione di tempo.

Per questo per me bisogna partire dalla 6800 XT/ RTX 3080. La 4070 Ti è sicuramente meglio, ma costa 300€ in più, e a mio avviso quel grosso investimento non ripagherà per tanto tempo, dato l'enorme e inaccettabile decadimento di performance in 4K rispetto alle altre risoluzione visibile già ora. Se le sopraccitate GPU fra (diciamo) 1 anno costringeranno ad abbassare la qualità visiva in maniera vistosa per garantire i 60fps, la 4070 Ti lo farà fra 2 anni. Con i giochi che usciranno tra 3/4 anni, anche la 4070 Ti sarà tagliata fuori. Quindi no, per me la 4070 Ti è una scheda per giocare in maniera ottimale con il RT in 4K e DLSS attivo, ma NON è un investimento a lungo termine per il 4K.

Se anche fosse come dici (e credo che il DLSS 3 faccia ancora più la differenza) per me un anno in più vale quei 300 euro eccome. Io oggi per varie ragioni considero più sensato spendere 900 euro per una 4070Ti che 600 euro per una 6800XT. Chiaramente tolgo la 3080 dall'equazione perché ai prezzi a cui si trova non ha alcun senso (prendo una 4070Ti direttamente).
Peraltro se una 3070, uscita nel 2020, va ancora bene con tutto nel 2023, non vedo perché tra 3 anni la 4070Ti non debba fare lo stesso. Anche la 1070Ti oggi è ancora usabile, fatte le dovute regolazioni, con soddisfazione.
Per me è importante distinguere tra chi una scheda la possiede già e chi la deve prendere. Se possiedi una 3080 o una 6800XT, sono d'accordissimo nel non cambiarla (e non certo per una 4070 Ti !). Se invece parliamo di un acquisto da fare ora, non sono schede da considerare.

Se Nvidia avesse deciso di non castrare questa scheda con quel bus probabilmente lo sarebbe stata, ma chi spende quei 3-400€ in più rispetto alla fascia sweet Spot delle 3070/Ti/6800/XT, è importante che sia consapevole del fatto che lo fa per avere l'esperienza gaming ultimate OGGI, non fra 3/4 anni.
parli di "quel bus" ripetendo un meme che gira sul web senza senso. Può tu non sappia esattamente cosa implica.
Ti rendi conto che il bus che continui a denigrare è di 192 bit ? La tua 6800XT ha un bus da 256 bit, quindi poco più largo, ma la VRAM disponibile per la 4070Ti è di 21 Gbps mentre nella tua 6800XT come nella 6900XT è solo 16 Gbps. Il bus è un numero che da solo non significa nulla. La banda disponibile con le due soluzioni è pressoché identica (504 Gb/s vs 512 Gb/s), quindi se era idonea la 6900XT adesso lo è la 4070Ti.

Io concordo con il tuo ragionamento con alcuni "ma", quello che mette fuori gioco le Nvidia al momento è sempre il prezzo, una 6800 xt te la porti a casa a meno di 600 euro al momento, il che non è male, calcolando anche i 16gb di vram, vedremo la 4070 liscia ma per me starà sui 700 euro con la TI sui 900, e non è poco....
ribadisco: quando vedete i prezzi delle radeon serie 6000 oggi così bassi chiedetevi il motivo. AMD è scesa sotto al 7% di market share, sulle GPU.
Quelle schede costano poco perché di fatto nessuno le vuole.
E tra i motivi ci sono i tanti, troppi problemi che hanno causato negli anni.

AMD aveva un calcio di rigore a porta vuota, con la serie 7000. Nvidia in ritardo, con prezzi fuori dal mondo ed offerta incompleta.
Come hanno risposto ? Con schede ancora deboli in RT, a prezzi comunque altini e con porcate pure peggio di Nvidia (la 7900XT è ancora peggio della storia 4080 12/16 GB che alla fine Nvidia ha ritirato prima del lancio). Il tutto con un offerta ancora incompleta: le 7900 lanciate in realtà sono delle "7800" (nessuna compete con la 4090), le 7700 e 7600 ancora non si vedono perché AMD vuole mungere i suoi stessi fanboy.

Ah si, però hanno 16 GB di VRAM... 😒
 
ribadisco: quando vedete i prezzi delle radeon serie 6000 oggi così bassi chiedetevi il motivo. AMD è scesa sotto al 7% di market share, sulle GPU.
Quelle schede costano poco perché di fatto nessuno le vuole.
E tra i motivi ci sono i tanti, troppi problemi che hanno causato negli anni.

AMD aveva un calcio di rigore a porta vuota, con la serie 7000. Nvidia in ritardo, con prezzi fuori dal mondo ed offerta incompleta.
Come hanno risposto ? Con schede ancora deboli in RT, a prezzi comunque altini e con porcate pure peggio di Nvidia (la 7900XT è ancora peggio della storia 4080 12/16 GB che alla fine Nvidia ha ritirato prima del lancio). Il tutto con un offerta ancora incompleta: le 7900 lanciate in realtà sono delle "7800" (nessuna compete con la 4090), le 7700 e 7600 ancora non si vedono perché AMD vuole mungere i suoi stessi fanboy.

Ah si, però hanno 16 GB di VRAM... 😒

E i driver penosi...
 
hai preso 3 pessimi esempi, non sono 3 giochi "pesanti"sono 3 giochi ottimizzati male compreso dead space quindi quei grafici sono abbastanza fasulli


Per tutti e 3 i giochi la situazione attuale è molto diversa, HL in particolare con la 3080 SENZA RT aveva cali che arrivavano a 40 fps, oggi nelgi stessi posti ne fa 120 con RT

PEr vedere una situazine piu relaistica devi vedere le perfoprmance "relaticve"

Visualizza allegato 457126

Non si tratta di qualche fps come affermi in 4k e io la vedo come @Max(IT), per il 4k è presto sia come risoluzione da prendere in considerazione sia per gli stessi monitor, oppure la 4070ti è come direi "minimo sindacale" per quella risoluzione se vuoi una scheda che duri


Detto questo qui siamo abbondantemente off topic, il 3d parla di una scheda per il 1080p non per il 4k


Anche TLOU è un pessimo esempio, TLOU poi ha altri problemi come già detto e ridetto, se si vede il topic ufficiale si capisce come TLOU richiede risorse assurde senza motivazione, segnale evidente di un lavoro non finito e di una mancata "pulizia"

RE4 poi è un angine che ha il contatore VRAM ( da motlisismo tempo anche gli altri remake) e fa credere alle persone che servano 13 gb di vram per farlo girare quanto sono sufficienti 8GB
concordo e ribadisco il concetto: ho scritto che la 4070 Ti è il minimo sindacale per il 4K, non che sia la soluzione IDEALE.
se oggi dovessi prendere una scheda video per un 4K a 60 FPS, sotto a quella non comprerei nulla.
 
Pubblicità
Pubblicità
Indietro
Top