Considerazioni sulla 3070ti e futuro prossimo

Pubblicità

Maraudon

Utente Attivo
Messaggi
267
Reazioni
34
Punteggio
58
Buongiorno a tutti,
ho avuto recentemente una discussione con un mio amico, sicuramente più esperto di me lato PC Gaming il quale mi ha fatto un po' sorgere il dubbio su una questione che è molto in voga negli ultimi tempi ovvero la quantità di VRAM presente nelle schede video.

Premetto che, ho assemblato il mio computer a fine luglio, prendendo una 3070ti FE a 650 euro che per quel periodo è stato un bel colpo (tra l'altro la scheda video la presi un paio di mesi prima) ed ero la persona più felice del mondo, considerando che grazie a questo forum sono riuscito a fare una bella build. Ora, ho notato che negli ultimi mesi tutti i giochi usciti su computer sono effettivamente male ottimizzati o comunque saturano moltissimo la VRAM della mia scheda video (8 gb).

Quello che vi chiedo è: possibile mai che una scheda della generazione 3000 sia effettivamente già obsoleta, vuoi per mancanza di ottimizzazione, vuoi per richieste più esose da parte dei giochi ? E, soprattutto, io presi questa scheda per giocare in 1440p senza compromessi o minimi, la realtà delle cose è che su molti giochi devo comunque abbassare alcuni dettagli proprio per il motivo di cui sopra.

Io credo sia assurdo dover stare ogni anno a cambiare la propria GPU per cercare di stare al passo delle nuove uscite, ma volevo chiedervi cosa ne pensavate voi al riguardo.

Grazie mille
 
Buongiorno a tutti,
ho avuto recentemente una discussione con un mio amico, sicuramente più esperto di me lato PC Gaming il quale mi ha fatto un po' sorgere il dubbio su una questione che è molto in voga negli ultimi tempi ovvero la quantità di VRAM presente nelle schede video.

Premetto che, ho assemblato il mio computer a fine luglio, prendendo una 3070ti FE a 650 euro che per quel periodo è stato un bel colpo (tra l'altro la scheda video la presi un paio di mesi prima) ed ero la persona più felice del mondo, considerando che grazie a questo forum sono riuscito a fare una bella build. Ora, ho notato che negli ultimi mesi tutti i giochi usciti su computer sono effettivamente male ottimizzati o comunque saturano moltissimo la VRAM della mia scheda video (8 gb).

Quello che vi chiedo è: possibile mai che una scheda della generazione 3000 sia effettivamente già obsoleta, vuoi per mancanza di ottimizzazione, vuoi per richieste più esose da parte dei giochi ? E, soprattutto, io presi questa scheda per giocare in 1440p senza compromessi o minimi, la realtà delle cose è che su molti giochi devo comunque abbassare alcuni dettagli proprio per il motivo di cui sopra.

Io credo sia assurdo dover stare ogni anno a cambiare la propria GPU per cercare di stare al passo delle nuove uscite, ma volevo chiedervi cosa ne pensavate voi al riguardo.

Grazie mille
Ciao, considera che le texture su ultra, spesso sono delle texture per il 4K, quindi, il tenerle su alto/molto alto/ultra spesso e volentieri in 1440p non cambia quasi nulla. Detto ciò, nel caso in cui ti ritroverai a giocare ad un gioco ottimizzato male e che satura più vram del dovuto, ti basterà abbassare le texture da ultra ad alto ( il 5% dei casi ).
Io sto giocando da venerdi 02/06 Diablo 4, gioco appena uscito. Graficamente spettacolare e tutto al max in 3440x1440p sto saturando solo 6.5/7GB di vram, considera che quella risoluzione ha quasi 2 milioni di pixel in più al classico QHD 2560x1440p, quindi immagino che a quella risoluzione ne andrebbe a saturare 6GB max.
Altri giochi usciti di recente e con un minimo di ottimizzazione, non arrivano a saturare i 6/6.5GB di vram EFFETTIVI, inoltre spesso la gente si confonde con la memoria allocata e quella effettivamente in uso, ti faccio un piccolo esempio tecnico.
Prendi due gpu come esempio, la rtx 3070 8GB e la rtx 3080 12GB su The last of us Parte 1 remake ( esempio a caso ), dove nel primo caso MSI afterburn ti segna 7.5GB in "uso" ( in realtà allocati ) e nella rtx 3080 12GB ne segna in "uso" 11.5GB, questo accade perché se il software in questione, vede che la gpu ha più vram di quella necessaria, esso deciderà di immagazzinare dati che possono servire in futuro, in modo da avere quei dati a portata di mano nel caso di necessità, un po come accade con la memory cache.
Quindi in realtà il gioco arriva a saturare 5 o 6GB di vram, ma se ne vede altra disponibile, la utilizza come "magazzino" o se vogliamo ( più tecnico ) come memoria cache.

Ti renderai conto se la tua rtx 3070ti avrà problemi di vram, non perché te lo indica msi afterburn o qualche amico che si sente un esperto, ma perché avrai dello stuttering pesante per via della saturazione della vram. E' una cosa che accade raramente, per esempio succede oggi con le gpu con 3/4GB di vram in 1080p o con le gpu da 6GB di vram in 1440p, ma con 8GB di vram puoi stare tranquillo ancora per diversi anni.
Il consiglio che posso darti è di non giudicare il tuo hardware ( cosa che fanno in molti ) solo perché ha problemi nei giochi ottimizzati con il culo, prendi in considerazione un upgrade, solo ed esclusivamente se non ti soddisfa più personalmente. Io per esempio cambierò la mia rtx 3080 12GB solo quando non mi permetterà di fare 60fps in 3440x1440p con almeno tutto su alto nei giochi che per me sono importanti.
 
la risposta non è per niente semplice, ed i fattori in gioco vari.
1° ottimizzazione dei giochi
sempre più spesso i giochi escono in beta se non anche in alpha.
la soluzione a questo problema è semplicemente non acquistare i giochi finché non siano più o meno sistemati.

2° la ram video
8 gb sembrano pochi in QHD...
e lo sono se spari tutto ad ultra (soprattutto su giochi usciti non finiti...). gioca con le impostazioni, partendo dalla qualità delle texture... da alto a ultra a livello visivo probabilmente manco te ne accorgi, ma a livello di fps e di vram te ne accorgerai e eccome anche!

in molti sulla 3070 e 3070ti storcevano il naso per gli 8gb anziché un più "future-proof" 10 o 12, 8gb sulla 60 e 60ti potevano starci tranquillamente, son schede da fhd a ultra o qhd a medio-alto per la 60ti (grazie al bus pari alla 70) e medio / medio-basso per la 60. con RT.

personalmente prendo una scheda per permettermi di saltare almeno una gen.
avevo preso la 3070 e la mia intenzione era minimo saltare le 4000 e se riuscivo anche le 5 e fare l'aggiornamento con le 6000, ma purtroppo un problema con la 3070 (Sant'Amazon ci ha messo la pezza... e il rimborso!) mi ha costretto a fare il passaggio alle 4000. ora fino a minimo le 6000 non se ne parla, se riesco punto alle 7000.
 
la risposta non è per niente semplice, ed i fattori in gioco vari.
1° ottimizzazione dei giochi
sempre più spesso i giochi escono in beta se non anche in alpha.
la soluzione a questo problema è semplicemente non acquistare i giochi finché non siano più o meno sistemati.

2° la ram video
8 gb sembrano pochi in QHD...
e lo sono se spari tutto ad ultra (soprattutto su giochi usciti non finiti...). gioca con le impostazioni, partendo dalla qualità delle texture... da alto a ultra a livello visivo probabilmente manco te ne accorgi, ma a livello di fps e di vram te ne accorgerai e eccome anche!

in molti sulla 3070 e 3070ti storcevano il naso per gli 8gb anziché un più "future-proof" 10 o 12, 8gb sulla 60 e 60ti potevano starci tranquillamente, son schede da fhd a ultra o qhd a medio-alto per la 60ti (grazie al bus pari alla 70) e medio / medio-basso per la 60. con RT.

personalmente prendo una scheda per permettermi di saltare almeno una gen.
avevo preso la 3070 e la mia intenzione era minimo saltare le 4000 e se riuscivo anche le 5 e fare l'aggiornamento con le 6000, ma purtroppo un problema con la 3070 (Sant'Amazon ci ha messo la pezza... e il rimborso!) mi ha costretto a fare il passaggio alle 4000. ora fino a minimo le 6000 non se ne parla, se riesco punto alle 7000.
Tu rassicurare utente devi, consigliare male non devi tu. Caso tuo diverso era dal suo. Tranquillo lui stare con rtx 3070ti, problema nessuno almeno per diversi anni.

@bellandrew che la forza sia con te!
42e8604d-375f-4e70-8716-24a9a830d2a8.gif
 
Tu rassicurare utente devi, consigliare male non devi tu. Caso tuo diverso era dal suo. Tranquillo lui stare con rtx 3070ti, problema nessuno almeno per diversi anni.

@bellandrew che la forza sia con te!
Visualizza allegato 460810
diverso mio caso é...
mio messaggio a sostegno che memoria di 3070ti insufficiente non é!
giochi usciti fatti con fondoschiena... considerati non vanno!!

che lo sforzo con te sia!
images.webp
 
diverso mio caso é...
mio messaggio a sostegno che memoria di 3070ti insufficiente non é!
giochi usciti fatti con fondoschiena... considerati non vanno!!

che lo sforzo con te sia!
Visualizza allegato 460811
Sisi avevo capito, infatti stavo scherzando, una scusa per fare il demente con la voce di yoda. Il tuo commento non faceva una piega, infatti ho messo anche il like.
 
Sisi avevo capito, infatti stavo scherzando, una scusa per fare il demente con la voce di yoda. Il tuo commento non faceva una piega, infatti ho messo anche il like.
si si, avevo capito. da li la faccina che ride.

stavo rincarando la dose, e utilizzando la voce di yoda.

ci ho quasi messo di più a scrivere il messaggio precedente che la pappardella di prima... 🤣 🤣

chi ha inventato yoda era un genio, posso solo immaginare quanto tempo abbiano impiegato a scrivere le sue battute...😅
 
Ciao, considera che le texture su ultra, spesso sono delle texture per il 4K, quindi, il tenerle su alto/molto alto/ultra spesso e volentieri in 1440p non cambia quasi nulla. Detto ciò, nel caso in cui ti ritroverai a giocare ad un gioco ottimizzato male e che satura più vram del dovuto, ti basterà abbassare le texture da ultra ad alto ( il 5% dei casi ).
Io sto giocando da venerdi 02/06 Diablo 4, gioco appena uscito. Graficamente spettacolare e tutto al max in 3440x1440p sto saturando solo 6.5/7GB di vram, considera che quella risoluzione ha quasi 2 milioni di pixel in più al classico QHD 2560x1440p, quindi immagino che a quella risoluzione ne andrebbe a saturare 6GB max.
Altri giochi usciti di recente e con un minimo di ottimizzazione, non arrivano a saturare i 6/6.5GB di vram EFFETTIVI, inoltre spesso la gente si confonde con la memoria allocata e quella effettivamente in uso, ti faccio un piccolo esempio tecnico.
Prendi due gpu come esempio, la rtx 3070 8GB e la rtx 3080 12GB su The last of us Parte 1 remake ( esempio a caso ), dove nel primo caso MSI afterburn ti segna 7.5GB in "uso" ( in realtà allocati ) e nella rtx 3080 12GB ne segna in "uso" 11.5GB, questo accade perché se il software in questione, vede che la gpu ha più vram di quella necessaria, esso deciderà di immagazzinare dati che possono servire in futuro, in modo da avere quei dati a portata di mano nel caso di necessità, un po come accade con la memory cache.
Quindi in realtà il gioco arriva a saturare 5 o 6GB di vram, ma se ne vede altra disponibile, la utilizza come "magazzino" o se vogliamo ( più tecnico ) come memoria cache.

Ti renderai conto se la tua rtx 3070ti avrà problemi di vram, non perché te lo indica msi afterburn o qualche amico che si sente un esperto, ma perché avrai dello stuttering pesante per via della saturazione della vram. E' una cosa che accade raramente, per esempio succede oggi con le gpu con 3/4GB di vram in 1080p o con le gpu da 6GB di vram in 1440p, ma con 8GB di vram puoi stare tranquillo ancora per diversi anni.
Il consiglio che posso darti è di non giudicare il tuo hardware ( cosa che fanno in molti ) solo perché ha problemi nei giochi ottimizzati con il culo, prendi in considerazione un upgrade, solo ed esclusivamente se non ti soddisfa più personalmente. Io per esempio cambierò la mia rtx 3080 12GB solo quando non mi permetterà di fare 60fps in 3440x1440p con almeno tutto su alto nei giochi che per me sono importanti.
Molto chiaro, tendenzialmente lavorando sui settaggi e, qualora non si riesca più ad avere una resa grafica soddisfacente (ad esempio scende a medio o comunque giù di lì) valutare poi il passaggio.

Una scheda allora quante generazioni potrebbe durare ?
 
Molto chiaro, tendenzialmente lavorando sui settaggi e, qualora non si riesca più ad avere una resa grafica soddisfacente (ad esempio scende a medio o comunque giù di lì) valutare poi il passaggio.

Una scheda allora quante generazioni potrebbe durare ?
Dipende da te. Ti faccio un esempio banale che riguarda me. Attendevo Diablo 4 da tantissimi anni, se la mia gpu non riusciva a soddisfare le mie esigenze in quel gioco, avrei pensato ad un upgrade, mentre se non le soddisfa su cyberpunk 2077 ( ottimizzato con i piedi ) non me ne può fregar di meno, poiché quel gioco andrebbe male con qualsiasi gpu al di sotto di 1200 euro attuali.

Se vuoi una risposta un po cosi, butta li, ti direi come minimo per l'intera generazione di console, le pro non saprei, ma quelle attuali di sicuro.
--- i due messaggi sono stati uniti ---
si si, avevo capito. da li la faccina che ride.

stavo rincarando la dose, e utilizzando la voce di yoda.

ci ho quasi messo di più a scrivere il messaggio precedente che la pappardella di prima... 🤣 🤣

chi ha inventato yoda era un genio, posso solo immaginare quanto tempo abbiano impiegato a scrivere le sue battute...😅
Purtroppo mi tocca specificare sempre che scherzo, poiché molti utenti se la prendono, ma te non mi sembri quel tipo di utente 😍
 
Ultima modifica:
Molto chiaro, tendenzialmente lavorando sui settaggi e, qualora non si riesca più ad avere una resa grafica soddisfacente (ad esempio scende a medio o comunque giù di lì) valutare poi il passaggio.

Una scheda allora quante generazioni potrebbe durare ?
dipende moltissimo dall'utente:
per te?
hai preso la 3070ti (gpu di fascia medio-alta) a maggio 2022? (gpu lanciata il 10 giugno 2021)
la tua gpu è uscita 2 anni fà, probabilmente un altro annetto se lo fà tranquillamente ad alto/ultra sui giochi non rotti, magari verso fine 2024 e con i relativi nuovi giochi dovrai calare a medio-alto comunque tenendo una media di 60-90fps in qhd.

di solito la vita media per una gpu è dai 2 ai 5 anni. (2/3 per le fasce medio-basse, 5 per le top.)
dopo tale periodo si inizia a pensare ad un cambio. portafoglio permettendo! (se la scimmia chiama, ma fatichi a pagar le bollette: La scimmia va a farsi F*****e!)

un'enthusiast?
prende la 4090 e gode come un riccio, ed all'uscita della serie 5000 prenderà la nuova top.

quel mattacchione di beex?
ora gode come un riccio con la sua 4090. 2/3 anni, con i nuovi giochi dovrà calare da Uber/Mega/Ultra in 4K a solo Ultra, poi dopo un altro annetto magari a alto/ultra, e se la moglie non lo avrà appeso per i gioielli di famiglia per l'aumento (marginale, molto marginale) nella bolletta... penserà alla 6090.

Dipende da te. Ti faccio un esempio banale che riguarda me. Attendevo Diablo 4 da tantissimi anni, se la mia gpu non riusciva a soddisfare le mie esigenze in quel gioco, avrei pensato ad un upgrade, mentre se non le soddisfa su cyberpunk 2077 ( ottimizzato con i piedi ) non me ne può fregar di meno, poiché quel gioco andrebbe male con qualsiasi gpu al di sotto di 1200 euro attuali.

Se vuoi una risposta un po cosi, butta li, ti direi come minimo per l'intera generazione di console, le pro non saprei, ma quelle attuali di sicuro.
Concordo!
CBug è una strana creatura... grafica di livello alto, una storia interessante, con elementi GDR... ehm... su questo punto sorvoliamo. 😅 IA? lasciamo perdere. gameplay? carino. open-world? ni... mappa grandina, a livello del suolo!
sotterranei? 4 tubi in croce. niente metro... niente cantine... bah!
Hacking? 🥶🥶🥶 se avessero copiato da mankind divided "Data Breach", avrei goduto come un riccio! 🤤🤤🤤

da quel che ho visto diablo è un simil isometrico. se mettesse nei guai una 3070 inizierei ad incacchiarmi per l'ennesimo gioco uscito coi piedi.
--- i due messaggi sono stati uniti ---


Purtroppo mi tocca specificare sempre che scherzo, poiché molti utenti se la prendono, ma te non mi sembri quel tipo di utente 😍
non me la prendo, su sto forum ci son parecchi utenti che "sembrano" delle teste di cacchio (un paio son pure mod)... poi in realtà la maggior parte son semplicemente i loro modi che sono bruschi, se gli chiedi info o aiuto si fanno in otto per aiutarti.

l'ho scritto più volte, da dietro uno schermo le emozioni ed i "sottointesi" che normalmente si riescono a far passare in un discorso effettuato a voce son quasi impossibili da trasmettere. 😉
 
Quindi diciamo che gli 8 giga di VRAM non sono assolutamente un problema nel medio termine, ma, tra 3 annetti dovrei scendere molto a compromessi con la grafica. Però voglio dire, se ogni 3 anni cambio scheda per me va più che bene insomma... magari puntare alla serie 6000 quando sarà.
 
Quindi diciamo che gli 8 giga di VRAM non sono assolutamente un problema nel medio termine, ma, tra 3 annetti dovrei scendere molto a compromessi con la grafica. Però voglio dire, se ogni 3 anni cambio scheda per me va più che bene insomma... magari puntare alla serie 6000 quando sarà.
molto? no. a compromessi? si.
dovresti giocare parecchio con le impostazioni per trovare un buon compromesso che ti permetta di goderti gli ultimi titoli a medio/medio-alto a 60+ fps.
 
Buongiorno a tutti,
ho avuto recentemente una discussione con un mio amico, sicuramente più esperto di me lato PC Gaming il quale mi ha fatto un po' sorgere il dubbio su una questione che è molto in voga negli ultimi tempi ovvero la quantità di VRAM presente nelle schede video.

Premetto che, ho assemblato il mio computer a fine luglio, prendendo una 3070ti FE a 650 euro che per quel periodo è stato un bel colpo (tra l'altro la scheda video la presi un paio di mesi prima) ed ero la persona più felice del mondo, considerando che grazie a questo forum sono riuscito a fare una bella build. Ora, ho notato che negli ultimi mesi tutti i giochi usciti su computer sono effettivamente male ottimizzati o comunque saturano moltissimo la VRAM della mia scheda video (8 gb).

Quello che vi chiedo è: possibile mai che una scheda della generazione 3000 sia effettivamente già obsoleta, vuoi per mancanza di ottimizzazione, vuoi per richieste più esose da parte dei giochi ? E, soprattutto, io presi questa scheda per giocare in 1440p senza compromessi o minimi, la realtà delle cose è che su molti giochi devo comunque abbassare alcuni dettagli proprio per il motivo di cui sopra.

Io credo sia assurdo dover stare ogni anno a cambiare la propria GPU per cercare di stare al passo delle nuove uscite, ma volevo chiedervi cosa ne pensavate voi al riguardo.

Grazie mille
Premesso che le schede video sono prodotti volutamente progettati per diventare obsoleti entro un paio d'anni (nVidia ha utilizzato il trucco della VRAM limitata per programmare l'obsolescenza della serie 3000, ma se non avesse utilizzato questo stratagemma stai tranquillo che ci sarebbe stato qualcos'altro): è sempre stato così e non è di certo una cosa nata con la serie 3000.
Detto questo: di quale tipo di compromessi stiamo parlando? Perchè se si tratta di dover abbassare i dettagli di 2-3 opzioni da Ultra a High sinceramente, nel mio vocabolario, non li considero compromessi. Quello che conta è l'impatto visivo reale.

Molte delle impostazioni "Ultra" nei giochi sono degli stratagemmi mangia risorse che non hanno alcun riscontro grafico reale e servono principalmente per appagare l'utente "enthusiast" che ha appena speso uno stipendio per una scheda video. Quindi la domanda è: noti dei compromessi visivi tangibili per rientrare nel tuo framerate di riferimento? Oppure è solo una questione di fastidio del dover vedere lo slider delle ombre nel menu impostazioni impostato su "Alto" o addirittura su quella brutta parola chiamata "Medio"?

PS: la domanda sorge spontanea: come mai hai scelto una 3070 Ti piuttosto che una 3070 liscia?
 
Premesso che le schede video sono prodotti volutamente progettati per diventare obsoleti entro un paio d'anni (nVidia ha utilizzato il trucco della VRAM limitata per programmare l'obsolescenza della serie 3000, ma se non avesse utilizzato questo stratagemma stai tranquillo che ci sarebbe stato qualcos'altro): è sempre stato così e non è di certo una cosa nata con la serie 3000.
Detto questo: di quale tipo di compromessi stiamo parlando? Perchè se si tratta di dover abbassare i dettagli di 2-3 opzioni da Ultra a High sinceramente, nel mio vocabolario, non li considero compromessi. Quello che conta è l'impatto visivo reale.

Molte delle impostazioni "Ultra" nei giochi sono degli stratagemmi mangia risorse che non hanno alcun riscontro grafico reale e servono principalmente per appagare l'utente "enthusiast" che ha appena speso uno stipendio per una scheda video. Quindi la domanda è: noti dei compromessi visivi tangibili per rientrare nel tuo framerate di riferimento? Oppure è solo una questione di fastidio del dover vedere lo slider delle ombre nel menu impostazioni impostato su "Alto" o addirittura su quella brutta parola chiamata "Medio"?

PS: la domanda sorge spontanea: come mai hai scelto una 3070 Ti piuttosto che una 3070 liscia?
Ciao!

Quasi tutti i giochi a cui sto giocando e che ho giocato, tranne alcuni che girano benissimo con tutto su ultra (world of warcraft ad esempio) su tutti cerco di prendere i settaggi ottimali da vari video su youtube o dalle analisi di Digital Foundry, pertanto non è assolutamente un problema smanettare con i settaggi.

Ovviamente il problema si porrà quando dovrò scendere troppo con ques'ultimi, considerando che ho anche una PS5, il computer l'ho buildato per poter avere una esperienza più completa e soprattutto con un livello grafico/fps più alto della PS5, quindi se adesso sto giocando a Returnal su PC che mi gira a 100 fps più o meno, senza DLSS e con settaggi ottimizzati, lo reputo comunque migliore della controparte su PS5 che si ferma a 60fps.

Sull'ultima tua domanda, in quel periodo di penuria da parte delle schede video, uscì il drop Nvidia delle founders che mi fece propendere immediatamente per la 3070ti, non potendo prendere la 3080 ed essendo esaurita la 3070 liscia, ho preso la ti proprio per avere una esperienza più consistente in QHD. La 3080 sarebbe stato l'ideale, ma un po' per il budget e un po' per la titubanza iniziale, ho preso la 3070ti a 650 euro. Certo, non è la migliore scheda di quella generazione, avendo un piccolo boost rispetto alla 3070 liscia però a quel prezzo credo di aver fatto un affare.
 
Ciao!

Quasi tutti i giochi a cui sto giocando e che ho giocato, tranne alcuni che girano benissimo con tutto su ultra (world of warcraft ad esempio) su tutti cerco di prendere i settaggi ottimali da vari video su youtube o dalle analisi di Digital Foundry, pertanto non è assolutamente un problema smanettare con i settaggi.

Ovviamente il problema si porrà quando dovrò scendere troppo con ques'ultimi, considerando che ho anche una PS5, il computer l'ho buildato per poter avere una esperienza più completa e soprattutto con un livello grafico/fps più alto della PS5, quindi se adesso sto giocando a Returnal su PC che mi gira a 100 fps più o meno, senza DLSS e con settaggi ottimizzati, lo reputo comunque migliore della controparte su PS5 che si ferma a 60fps.

Sull'ultima tua domanda, in quel periodo di penuria da parte delle schede video, uscì il drop Nvidia delle founders che mi fece propendere immediatamente per la 3070ti, non potendo prendere la 3080 ed essendo esaurita la 3070 liscia, ho preso la ti proprio per avere una esperienza più consistente in QHD. La 3080 sarebbe stato l'ideale, ma un po' per il budget e un po' per la titubanza iniziale, ho preso la 3070ti a 650 euro. Certo, non è la migliore scheda di quella generazione, avendo un piccolo boost rispetto alla 3070 liscia però a quel prezzo credo di aver fatto un affare.
La ps5 ha una gpu comparabile ad una rx 6700 che confrontata alla controparte (Nvidia), parliamo di performance pari ad una rtx 2080.
La tua rtx 3070ti, invece, è più veloce di una rx 6700/rtx 2080 di un 30%, supera persino la rtx 2080ti di un 15%, quindi io starei tranquillo fossi in te, anche perché la maggior parte dei giocatori ( mondiale ) posseggono gpu pari o inferiori alla rtx 3060.

Ignora gli utenti/canali/siti che affermano che 8GB di vram sono obsoleti, il 95% di loro non sanno neanche cosa significa memoria GDDR.
 
Pubblicità
Pubblicità
Indietro
Top