Consiglio scheda amd 1080p

Pubblicità
Aspetta, ora stiamo sfiorando il ridicolo. Giocare tutto ad ultra, sempre e incondizionatamente è da casual gamers non di certo da pc gamers. Chi gioca al pc da almeno 10 anni e ha studiato i settaggi grafici, sa che non è possibile mettere sempre tutto al max, perché alcuni settaggi sono inutili e spesso anche rotti, come per esempio l'anti aliasing a x8 dei tempi di Crysis 2007, il ray tracing di Hogwards Legacy, completamente inutile, il ray tracing di Resident evil 4 remake, le texture in 4K su doom eternal mentre si gioca in 1440p o 1080p ecc
Se tu hai problemi con una rtx 3060ti in 1080p, credimi avrai anche problemi con una rtx 4080 in 1440p perché il problema non è l'hardware, il problema sei TU!

Continui a non capire che il discorso, tutto il discorso è legato all'investimento che uno deve fare, una gpu costa e non costa poco, io la RTX 3060 Ti ce l'ho da tempo e quindi per me il discorso è diverso, se avessi una gpu vecchia e dovessi trovarmi nella condizione di cambiarla, io oggi con la serie 4xxx ancora in parte in uscita non la comprerei la 3060 TI, magari aspetterei di vedere come si stabilizzano i prezzi.

Che poi puoi giocare sul pc con un milione di parametri e nella maggior parte dei casi riuscire a ottimizzare le performance e vero, ma dipende sempre da quello che uno vuole o cerca, non puoi pensare che da qui ai prossimi tre anni i giochi richiederanno le stesse risorse che chiedono ora
 
Continui a non capire che il discorso, tutto il discorso è legato all'investimento che uno deve fare, una gpu costa e non costa poco, io la RTX 3060 Ti ce l'ho da tempo e quindi per me il discorso è diverso, se avessi una gpu vecchia e dovessi trovarmi nella condizione di cambiarla, io oggi con la serie 4xxx ancora in parte in uscita non la comprerei la 3060 TI, magari aspetterei di vedere come si stabilizzano i prezzi.

Che poi puoi giocare sul pc con un milione di parametri e nella maggior parte dei casi riuscire a ottimizzare le performance e vero, ma dipende sempre da quello che uno vuole o cerca, non puoi pensare che da qui ai prossimi tre anni i giochi richiederanno le stesse risorse che chiedono ora
Ma scusami, se tu hai comprato la rtx 3060ti oggi o l'anno scorso, tu comunque tra tre anni te la cambi, sia che gli 8GB di vram bastino o pure no. Tra tre anni vorrai sostituirla non per la vram ma per le performance che diventeranno un fattore limitante ben prima della vram.
In ogni caso tra tre anni la rx 6700xt, nonostante i suoi 12GB di vram comincerà a fare fatica a tenere i settaggi al max in 1440p e quei 4Gb di vram in più non conteranno nulla.

AMD ha sempre abbondato con la vram ma è solo una mossa di marketing. Per esempio la rx 480 o rx 580/590, erano gpu per il 1080p che montavano 8GB di vram, all'epoca i videogiochi in 1080p se arrivavano a saturare 4GB era già un evento straordinario, quindi per saturare 8GB di vram nel 2016/2017 bisognava salire in 4K, poiché all'epoca quel quantitativo di vram bastava per tale risoluzione. Ora secondo te una rx 580 era una gpu per il 4K ? Persino la gtx 1070 8GB non poteva saturare tutta quella vram, ne in 1440p ne tanto meno in 4K poiché il fattore limitante erano le performance ancor prima della vram.
Sia oggi che tra 3 anni 8GB di vram basteranno per giocare in 1440p, quindi tanto vale spendere quei 450 euro per una gpu come la rtx 3060ti che offre dlss, ray tracing migliore, g-sync, driver migliori ecc piuttosto che la rx 6700xt che ti offre solo 4Gb di vram in più, completamente inutili a quel livello di performance.
 
Max, quello che cercavo di spiegare anche io nel 3d che ho aperto, è che in molti nel settore stanno dicendo che 8gb di vram a breve saranno un pò pochi, questo perchè le console sono il mercato di riferimento e le console hanno 16gb di ram gddr6 unificata, e questo ha un suo peso nei porting e parliamo delle console di oggi, se l'anno prossimo escono le pro e aumentano ancora di più la memoria sarà anche peggio...

TLOU parte I remake sarà anche fatto con i piedi, ma pone delle domande, primo sulla occupazione proprio della vram, ad oggi con 8gb non puoi mettere le texture con dettaglio oltre medio se no "sfori", e secondo sulla decompressione delle texture in SW, infatti la cpu su TLOU lavora moltissimo, la mia modesta i5 10400f è quasi al cento per cento, questo perché su console le texture vengono decompresse in HW.

Ora è chiaro che c'è anche una certa pigrizia negli sviluppatori a non ottimizzare per pc, forse anche per questione di tempi e costi, ma se il trend è quello, con 8gb di vram sarai per forza costretto a giocare di impostazioni e ad abbassare la grafica

p.s. ripeto se il trend è quello, ma i segnali ci sono tutti
i 16 GB di RAM unificata non sono niente rispetto al tipico PC con 16 GB di RAM e 8 GB di VRAM.
Non ci sono "molti nel settore" a dire questo.
A dire il vero al momento nessuno l'ha detto se non un anonimo sviluppatore in un podcast...

TLOU è fatto con i piedi, sinora. La scena che vedi a 50 FPS, se ci ripassi un minuto dopo sta a 60 FPS perché è finita la decompressione. È un gioco buttato fuori in fretta, vedrai come migliorerà.
 
Prendiamo un lasso di tempo che va dal 2015 al 2023, saranno usciti più di 20.000 videogiochi ( numero a caso per esempio ), ora di tutti questi giochi soltanto:
1-The Last of Us parte 1 Remake.
2- Hogwards Legacy.
3- Resident evil 4 Remake.
Solo tre giochi hanno saturato 8GB di vram in 2560x1440p e guarda caso tutti e tre non brillano certo per una buona ottimizzazione. Ora due di questi titoli hanno già risolto il problema della vram, mentre The Last Of Us è solo questione di tempo.
no no specifichiamo anche meglio.
Hogwarts Legacy e stato corretto da più patch, ed oggi i problemi che c'erano all'inizio non si verificano.
Ieri guardavo un video in cui il recensore diceva proprio questo: i crash per esaurimento memoria che ottenevo al day one per la recensione, non riesco più a riprodurli. Al massimo un pochino di stuttering in alcune aree...
resident Evil 4 la stessa cosa...

Ad oggi è solo TLOU che ha problemi. E tra l'altro basta scendere poco di dettagli e l'ho visto girare su una 1660 Super senza patemi.

Ok, 8 GB a 1440P non sono una scelta lungimirante, ma stanno facendo un sacco di disinformazione ad arte sull'argomento.
 
più che di vram io mi riferivo alla potenza della gpu. Nei vari bench la 2080ti surclassa la 3060ti
La rtx 3060ti è solo un 10% più lenta e consuma 50watt in meno. E' basata su un architettura nuova, superiore, con una migliore gestione del dlss e ray tracing e un miglior supporto dei driver che sarà più longevo.
La rtx 3060ti è acquistabile nuova con garanzia, mentre la rtx 2080ti è usata e senza garanzia, inoltre essendo entrambe gpu per il 1440p, i 3Gb di vram in più della rtx 2080ti sono inutili anche in vista del futuro visto che tra 3 anni circa, cominceranno entrambe ad essere limitate dalle performance a quella risoluzione ben prima della quantità di vram.
 
Ma scusami, se tu hai comprato la rtx 3060ti oggi o l'anno scorso, tu comunque tra tre anni te la cambi, sia che gli 8GB di vram bastino o pure no. Tra tre anni vorrai sostituirla non per la vram ma per le performance che diventeranno un fattore limitante ben prima della vram.
In ogni caso tra tre anni la rx 6700xt, nonostante i suoi 12GB di vram comincerà a fare fatica a tenere i settaggi al max in 1440p e quei 4Gb di vram in più non conteranno nulla.

AMD ha sempre abbondato con la vram ma è solo una mossa di marketing. Per esempio la rx 480 o rx 580/590, erano gpu per il 1080p che montavano 8GB di vram, all'epoca i videogiochi in 1080p se arrivavano a saturare 4GB era già un evento straordinario, quindi per saturare 8GB di vram nel 2016/2017 bisognava salire in 4K, poiché all'epoca quel quantitativo di vram bastava per tale risoluzione. Ora secondo te una rx 580 era una gpu per il 4K ? Persino la gtx 1070 8GB non poteva saturare tutta quella vram, ne in 1440p ne tanto meno in 4K poiché il fattore limitante erano le performance ancor prima della vram.
Sia oggi che tra 3 anni 8GB di vram basteranno per giocare in 1440p, quindi tanto vale spendere quei 450 euro per una gpu come la rtx 3060ti che offre dlss, ray tracing migliore, g-sync, driver migliori ecc piuttosto che la rx 6700xt che ti offre solo 4Gb di vram in più, completamente inutili a quel livello di performance.

Sul discorso RTX 3060 TI vs 6700 xt mi trovi abbastanza d'accordo, nel senso che ho chiesto anche io nel 3d che ho aperto, più che altro interessato alla 6800 xt per via del buon prezzo street price raggiunto da tale scheda rispetto a quelle Nvidia, ma come già evidenziato la Nvidia dal lato suo ha belle carte da giocare, tra cui l'RT e il DLSS, e li ce poco da fare

Per il discorso degli 8gb di vram invece continuo a nutrire qualche dubbio che nei prossimi tempi saranno sufficienti per giocare in ultra, quello si vedrà, però ne faccio un discorso separato che non rientra in quello RTX 3060 TI vs 6700 xt, voglio precisarlo.

Per quanto riguarda me, che o cosa ti fà pensare che la RTX 3060 Ti la cambierà tra tre anni? 😁 io ho un turning dell'hw pc abbastanza stretto, di solito cpu / mb / ram ogni due anni, gpu dipende, a volte tre a volte due anni, compro e rivendo insomma :)
 
no no specifichiamo anche meglio.
Hogwarts Legacy e stato corretto da più patch, ed oggi i problemi che c'erano all'inizio non si verificano.
Ieri guardavo un video in cui il recensore diceva proprio questo: i crash per esaurimento memoria che ottenevo al day one per la recensione, non riesco più a riprodurli. Al massimo un pochino di stuttering in alcune aree...
resident Evil 4 la stessa cosa...

Ad oggi è solo TLOU che ha problemi. E tra l'altro basta scendere poco di dettagli e l'ho visto girare su una 1660 Super senza patemi.

Ok, 8 GB a 1440P non sono una scelta lungimirante, ma stanno facendo un sacco di disinformazione ad arte sull'argomento.
Guarda che l'ho specificato anche io che due di quei titoli citati hanno già risolto il problema. :P
 
i 16 GB di RAM unificata non sono niente rispetto al tipico PC con 16 GB di RAM e 8 GB di VRAM.
Non ci sono "molti nel settore" a dire questo.
A dire il vero al momento nessuno l'ha detto se non un anonimo sviluppatore in un podcast...

TLOU è fatto con i piedi, sinora. La scena che vedi a 50 FPS, se ci ripassi un minuto dopo sta a 60 FPS perché è finita la decompressione. È un gioco buttato fuori in fretta, vedrai come migliorerà.

Insomma alla fine del discorso, basta non comprare un gioco PC al D1 ma aspettare le nmila patch di correzione 😆

Sul mio pc TLOU per ora gira male male, shuttering con seghettamento delle immagini in diverse scene nonostante il vsync attivo e il frame bloccato a 60 fps, impostato quasi tutto su medio, e nonostante ciò continuo ad avere anche dei Crash, mah, aspetteremo altre patch, ho messo sotto anche gli ultimi driver Nvidia con hotfix come consigliato usciti ieri
 
Insomma alla fine del discorso, basta non comprare un gioco PC al D1 ma aspettare le nmila patch di correzione 😆

Sul mio pc TLOU per ora gira male male, shuttering con seghettamento delle immagini in diverse scene nonostante il vsync attivo e il frame bloccato a 60 fps, impostato quasi tutto su medio, e nonostante ciò continuo ad avere anche dei Crash, mah, aspetteremo altre patch
io ho gli stessi problemi su Assassin's Creed Revelations con una 970. Ok che la scheda non è giovanissima ma nemmeno il gioco. Qui credo che sia proprio Ubisoft a non aver rilasciato patch a quei tempi e ha smesso di supportarlo.
 
Per quanto riguarda me, che o cosa ti fà pensare che la RTX 3060 Ti la cambierà tra tre anni? 😁 io ho un turning dell'hw pc abbastanza stretto, di solito cpu / mb / ram ogni due anni, gpu dipende, a volte tre a volte due anni, compro e rivendo insomma :)
Tu puoi fare quello che vuoi, il mio era un esempio. Puoi vendertela domani come anche tra 5 anni, a me che mi cambia ?
Quello che ti consiglio è di tenertela stretta e di aspettare la serie rtx 5000 che probabilmente avrà un architettura ben superiore alla serie 3000/4000 ( che erano molto simili ), inoltre secondo me ci sarà un bel salto nelle gestione del ray tracing. Insomma un utente con una rtx 3060ti che gioca in 1080p o 1440p non dovrebbe pensare ad un upgrade, puoi benissimo resistere.
--- i due messaggi sono stati uniti ---
io ho gli stessi problemi su Assassin's Creed Revelations con una 970. Ok che la scheda non è giovanissima ma nemmeno il gioco. Qui credo che sia proprio Ubisoft a non aver rilasciato patch a quei tempi e ha smesso di supportarlo.
Tu sei quel utente di Multipla...it, riconosco il nome utente e l'immagine profilo.
 
Tu puoi fare quello che vuoi, il mio era un esempio. Puoi vendertela domani come anche tra 5 anni, a me che mi cambia ?
Quello che ti consiglio è di tenertela stretta e di aspettare la serie rtx 5000 che probabilmente avrà un architettura ben superiore alla serie 3000/4000 ( che erano molto simili ), inoltre secondo me ci sarà un bel salto nelle gestione del ray tracing. Insomma un utente con una rtx 3060ti che gioca in 1080p o 1440p non dovrebbe pensare ad un upgrade, puoi benissimo resistere.
--- i due messaggi sono stati uniti ---

Tu sei quel utente di Multipla...it, riconosco il nome utente e l'immagine profilo.
Non so di cosa tu stia parlando. Inoltre credo tu te lo stia inventando perché questo nick e questo avatar li ho solo qui e dubito che la casualità abbia fatto in modo che qualcuno utilizzasse proprio questo nick e questo avatar (a meno che qualcuno non li abbia visti qui e li abbia copiati), oltre al fatto che non frequento quel sito che hai citato. Al massimo il forum di hdblog che non bazzico da mesi ma ho tutt'altro nick e tutt'altro avatar.
Potresti linkarmi in privato questo fantomatico utente che usa il mio nick e il mio avatar su un'altra piattaforma?
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top