4k dei poveri: Rtx4070 o Rx7800xt

Pubblicità

Ponciarello

Nuovo Utente
Messaggi
17
Reazioni
6
Punteggio
24
Salve a tutti.
Piu' che un consiglio cerco opinioni
La mia Config e' :
I5 12400
32gb ddr4 3200
Case Corsair 4000D
Psu Corsair RM850
Una meravigliosa ma anziana GTX1080 Della Palit.

L'anno scorso ho sostituito il mio 21:9 3440x1400 con un meraviglioso Oled LG c2 42" 4k che uso a 360° per film , windows, photoshop e sopratutto gaming.
causa "scarsi euro" sono rimasto fermo con una GTX1080 e ovviamente devo scendere a compromessi Riesco giocare in 4k con giochi molto vecchi (la gtx1080 e' impressionante cmq ancora nel 2023) o piu' spesso a upscalare i 1440p o usare l' FSR quando c'e'. Gli ultimi mattoni neanche ci provo.

Devo dire che l'FSR non mi fa impazzire , specialmente in movimento , troppo ghosting. Sono molto incuriosito dal DLSS.

Adesso dopo aver atteso che il mercato GPU si stabilizzasse e il momento di acquistare qualcosa.
So benissimo che le GPU per il 4k sono 4090 - 4080 - 7900xtx etc. ma mi rifiuto di spendere tali somme.
Mi sono dato un limite e la mia scelta e' tra la nuova AMD rx7800 e la rtx4070 .

Con la Rx 7800 OGGI giocherei decentemente in 4k nativi in molti titoli e cmq in fsr In quelli piu' esosi. Del ray tracing mi frega poco ma vorrei evitare di usare spesso l'fsr perche' non mi piace come resa.

Con la 4070 OGGI avrei meno fps nelle risoluzioni native , costa 100€ in piu' ma UN DOMANI quando i giochi saranno sempre piu' pesanti avrei come arma il Dlss che sembra migliore come tecnologia dell'fsr che ,ripeto, mi fa parecchio schifo.

In sostanza: Meglio il raster oggi o il miglior upscaler domani?

Dell'efficienza energetica mi frega relativamente poco perche' ho gia' alimentatore ,case etc parecchio idonei a ospitare qualsiasi cosa, figuriamoci delle 10€ di risparmio in un anno, certo magari non sentire un elicottero dentro il case non mi farebbero schifo ma cmq parliamo di schede non affamate.

Sono stato un po' lungo ma ci tengo a sapere come la pensate, credo sia il dubbio amletico di molti
 
Mi permetto inizialmente di dire come premessa un po' di cose:

1. Queste schede non sono per il "4K dei poveri", innanzitutto perché costano la bellezza di 600 sberle (che per quanto nVidia e AMD cerchino di far passare come "fascia media", sono cifre che fino alla scorsa generazione toccava alla fascia alta), poi perché con l'ausilio di tecniche di upscaling avanzate ci si può giocare tranquillamente in 4K a framerate elevati senza compromessi (nella maggior parte dei titoli), o con "rinunce" dall'impatto visivo nullo, ma proprio zero. Il DLSS e l'FSR esistono, così come esistono le impostazioni grafiche. Ignorare queste tecnologie e dire "voglio giocare in nativo e tutta a Ultra", significa decidere volontariamente di rinunciare a delle performance "gratuite" per il solo puntiglio personale.

2. Non so in che condizioni tu abbia provato l'FSR, ma in 4K e a framerate elevati (60+, cosa che queste schede ti garantiscono praticamente con ogni gioco se si esclude il RT), in modalità Quality (e anche Balanced, con compromessi che per trovarli bisogna appiccicare il naso allo schermo), il risultato è semplicemente superiore a qualsiasi tecnica AA classica a risoluzione nativa. Il fatto che il DLSS sia superiore non significa che l'FSR non sia usabile, anzi! Il vero vantaggio del DLSS, oltre alla qualità generalmente superiore, è che rimane utilizzabile anche in modalità Performance e a risoluzioni inferiori. Per cui, se tra qualche anno i giochi non terranno i 60fps neanche in modalità Balanced, con il DLSS potrai andare in modalità Performance senza subire il tracollo di IQ che avrai con l'FSR.

Detto questo, ecco cosa ne penso: la 4070 è una scheda tecnologicamente superiore e che a parità di performance in raster vale qualcosa di più grazie alla maggiore efficienza, alle performance in RT superiori e alla maggiore qualità delle tecniche di upscaling e frame generation.
MA, e qui il ma è bello grande, se sei limitato in budget e devi fare un upgrade, io venderei GPU e CPU e con i 100€ di differenza prenderei almeno un 13500 o, se ce la fai, perfino un 13600k, dato che sempre più giochi stanno massacrando le CPU. Il rischio è quello di ritrovarsi una GPU sottoutilizzata a causa del bottleneck. Fino a qualche mese fa sarebbe stato impensabile con un 12400, ma visto quello che sta succedendo con i giochi recenti, io ci farei un pensiero...
 
Mi permetto inizialmente di dire come premessa un po' di cose:

1. Queste schede non sono per il "4K dei poveri", innanzitutto perché costano la bellezza di 600 sberle (che per quanto nVidia e AMD cerchino di far passare come "fascia media", sono cifre che fino alla scorsa generazione toccava alla fascia alta), poi perché con l'ausilio di tecniche di upscaling avanzate ci si può giocare tranquillamente in 4K a framerate elevati senza compromessi (nella maggior parte dei titoli), o con "rinunce" dall'impatto visivo nullo, ma proprio zero. Il DLSS e l'FSR esistono, così come esistono le impostazioni grafiche. Ignorare queste tecnologie e dire "voglio giocare in nativo e tutta a Ultra", significa decidere volontariamente di rinunciare a delle performance "gratuite" per il solo puntiglio personale.

2. Non so in che condizioni tu abbia provato l'FSR, ma in 4K e a framerate elevati (60+, cosa che queste schede ti garantiscono praticamente con ogni gioco se si esclude il RT), in modalità Quality (e anche Balanced, con compromessi che per trovarli bisogna appiccicare il naso allo schermo), il risultato è semplicemente superiore a qualsiasi tecnica AA classica a risoluzione nativa. Il fatto che il DLSS sia superiore non significa che l'FSR non sia usabile, anzi! Il vero vantaggio del DLSS, oltre alla qualità generalmente superiore, è che rimane utilizzabile anche in modalità Performance e a risoluzioni inferiori. Per cui, se tra qualche anno i giochi non terranno i 60fps neanche in modalità Balanced, con il DLSS potrai andare in modalità Performance senza subire il tracollo di IQ che avrai con l'FSR.

Detto questo, ecco cosa ne penso: la 4070 è una scheda tecnologicamente superiore e che a parità di performance in raster vale qualcosa di più grazie alla maggiore efficienza, alle performance in RT superiori e alla maggiore qualità delle tecniche di upscaling e frame generation.
MA, e qui il ma è bello grande, se sei limitato in budget e devi fare un upgrade, io venderei GPU e CPU e con i 100€ di differenza prenderei almeno un 13500 o, se ce la fai, perfino un 13600k, dato che sempre più giochi stanno massacrando le CPU. Il rischio è quello di ritrovarsi una GPU sottoutilizzata a causa del bottleneck. Fino a qualche mese fa sarebbe stato impensabile con un 12400, ma visto quello che sta succedendo con i giochi recenti, io ci farei un pensiero...
Per ora il 12400f va bene... meglio dare priorità alla GPU.
 
Sul punto 1 la pensiamo esattamente allo stesso modo , sul "4k dei poveri" la mia era ironia appunto , tanto e' vero che "riesco" a giocare in 4k con una gtx1080.

Per quanto riguarda la cpu......potrei capire se dovessi giocare a 1080p a 300mhz..... ma fidati che a 4k 60-100 fps il 12400 stara' bello tranquillo ancora per molto , escludendo ovviamente giochi ottimizzati alla caz con cui non ti salvi neanche con un i9 a 50 core.
Ho la scheda video datata ma la cpu non e' andata MAI oltre il 20% di utilizzo in 2k. Meglio cambiare al momento del bisogno effettivo.

discorso FSR\DLSS : Qualcuno che ha modo di usarli entrambi potrebbe dirmi se il Dlss ha lo stesso problema di ghosting (ho l'occhio sensibile) dell'fsr? Ad esempio su diablo 4\uncharted\Rdr2( dove i dettagli piu' scuri sono totalmente sputtanati) a immagine ferma l'fsr e' ottimo ma appena ci si muove c'e' quel leggero effetto scia che con la res nativa non esiste.
 
il DLSS è nettamente migliore dell'FSR sotto ogni punto di vista.

Leggero ghosting in alcuni casi(ma davvero leggero) può apparire quando si usa il dlss su rtx pesante, cosa che sarà risolta con il nuovo dlss 3.5 e ray recostruction.

Il dlss generalmente non ha ghosting in "generale".

Possono succedere "piccoli artefatti" in alcuni dettagli come lo specchietto di una macchina quando gli effetti del RT sono pesanti
Questo per colpa del denoiser e non del dlss cosa che ripeto viene corretta nel dlss 3.5
 
Ultima modifica:
Sul punto 1 la pensiamo esattamente allo stesso modo , sul "4k dei poveri" la mia era ironia appunto , tanto e' vero che "riesco" a giocare in 4k con una gtx1080.

Per quanto riguarda la cpu......potrei capire se dovessi giocare a 1080p a 300mhz..... ma fidati che a 4k 60-100 fps il 12400 stara' bello tranquillo ancora per molto , escludendo ovviamente giochi ottimizzati alla caz con cui non ti salvi neanche con un i9 a 50 core.
Ho la scheda video datata ma la cpu non e' andata MAI oltre il 20% di utilizzo in 2k. Meglio cambiare al momento del bisogno effettivo.

discorso FSR\DLSS : Qualcuno che ha modo di usarli entrambi potrebbe dirmi se il Dlss ha lo stesso problema di ghosting (ho l'occhio sensibile) dell'fsr? Ad esempio su diablo 4\uncharted\Rdr2( dove i dettagli piu' scuri sono totalmente sputtanati) a immagine ferma l'fsr e' ottimo ma appena ci si muove c'e' quel leggero effetto scia che con la res nativa non esiste.
Se fossimo nel 2022 o anche a inizio di quest'anno, ti avrei detto che con il 12400 sei e rimarrai corazzato come si deve ancora per un bel po'. Ma le recenti uscite mi stanno lasciando parecchio perplesso. Ultimo esempio: Starfield. Con un 13400 scendo a volte a 50fps con la GPU al 90%. Scheda video che poi rimane costantemente al di sotto del 99% in ogni scenario. Il gioco è ottimizzato malissimo? Sicuramente, ma allora che facciamo, iniziamo a non giocare più a niente?

Posso chiederti a quali frame rate giochi per avere quei problemi di ghosting? Perché magari può essere dovuto al fatto che al di sotto dei 60fps l'FSR sia inutilizzabile. Dalla mia esperienza (purtroppo non posso fare confronti con il DLSS), non ho mai avuto particolari problemi a riguardo con l'FSR giocando a 60+fps, se non in un solo gioco, Cyberpunk 2077, risolto oltretutto dalla patch successiva alla prima implementazione. Il vero punto debole dell'FSR è la stabilità dell'immagine su scene in movimento (flickering). E in alcuni giochi direi anche un filtro di sharpening meno bello da vedere e troppo "artificiale". Ma in quest'ultimo caso si tratta di gusti.
 
Se fossimo nel 2022 o anche a inizio di quest'anno, ti avrei detto che con il 12400 sei e rimarrai corazzato come si deve ancora per un bel po'. Ma le recenti uscite mi stanno lasciando parecchio perplesso. Ultimo esempio: Starfield. Con un 13400 scendo a volte a 50fps con la GPU al 90%. Scheda video che poi rimane costantemente al di sotto del 99% in ogni scenario. Il gioco è ottimizzato malissimo? Sicuramente, ma allora che facciamo, iniziamo a non giocare più a niente?

Posso chiederti a quali frame rate giochi per avere quei problemi di ghosting? Perché magari può essere dovuto al fatto che al di sotto dei 60fps l'FSR sia inutilizzabile. Dalla mia esperienza (purtroppo non posso fare confronti con il DLSS), non ho mai avuto particolari problemi a riguardo con l'FSR giocando a 60+fps, se non in un solo gioco, Cyberpunk 2077, risolto oltretutto dalla patch successiva alla prima implementazione. Il vero punto debole dell'FSR è la stabilità dell'immagine su scene in movimento (flickering). E in alcuni giochi direi anche un filtro di sharpening meno bello da vedere e troppo "artificiale". Ma in quest'ultimo caso si tratta di gusti.
Tutti i giochi Bethesda hanno sempre dato rogne con la cpu, fallout 4 con i godrays a palla saturava un i7 6700k appena uscito. Skyrim con le ombre a ultra pesava come un macigno sulle cpu. Come Witcher 3 a novigrad faceva sanguinare gli I7 . Sono dei casi singoli , non puoi cambiare cpu ogni anno o prendere cpu da 500€ per 2 o 3 giochi. E' scritto nero su bianco in tutte le recensione che l'uso della cpu di starfield e' senza senso e il delta di differenza che hai sostituendo con un cpu piu' recente non giustifica assolutamente la cosa, non puoi farci nulla scendi a compromessi e giochi lo stesso. Nel momento in cui iniziano a stutterare tutti i giochi nuovi e la gpu si fa i cavoli suoi arriva il momento dell'upgrade. Ho tenuto un i7920 occato a 4ghz per anni senza alcun problema e l'i5 6500 fino all'anno scorso, certo sputava un po' di sangue e mi mandava in bottleneck anche la GTX1080 ma fino al 2021 ci facevi girare tutto, l'ho cambiato sopratutto per usare l'emulatore PS3.
Ovviamente cambia TUTTO se mi dici voglio giocare competitivo a 1080p a 244mhz.

Per quanto riguarda il ghosting lo vedo tantissimo su diablo giocando a una res di 60/70 fps. Probabilmente con un oled rispetto a un pannello lcd la cosa e' piu' evidente in quanto non esiste effetto scia e ha tempi di risposta prossimi allo 0
 
Ma stai utilizzando il C2 con la gtx 1080 a 1440p120hz o 4k60hz?
La gtx1080 purtroppo a 4k via hdmi non supporta i 120hz e neanche il gsync quindi sono bloccato a 60hz. In alcuni giochi scendo a 1440p e allora vado anche a 120hz dipende dai casi.
Ad esempio con su uncharted 4 a mio avviso l'fsr e' pessimo , preferisco scendere a 2440*1440 dallo scale rendering interno al gioco che restituisce una immagine perfetta anche se upscalata senza fsr, in questo caso il c2 mi supporta i 120hz , se saldo a 4k nativi arriva a 60hz.....ma tanto a oggi praticamente nessuno gioco (se non vecchissimo) mi va oltre i 60fps in 4k
 
La gtx1080 purtroppo a 4k via hdmi non supporta i 120hz e neanche il gsync quindi sono bloccato a 60hz. In alcuni giochi scendo a 1440p e allora vado anche a 120hz dipende dai casi.
Ad esempio con su uncharted 4 a mio avviso l'fsr e' pessimo , preferisco scendere a 2440*1440 dallo scale rendering interno al gioco che restituisce una immagine perfetta anche se upscalata senza fsr, in questo caso il c2 mi supporta i 120hz , se saldo a 4k nativi arriva a 60hz.....ma tanto a oggi praticamente nessuno gioco (se non vecchissimo) mi va oltre i 60fps in 4k
Proprio per questo te lo chiedevo, quello è sicuramente un beneficio dall'aggiornamento della scheda video. Oltre ovviamente al VRR che ha un impatto effettivo e apprezzabile indipendentemente da tutto.
Mi interessava capire se prediligessi la risoluzione o il refresh rate.
 
Pubblicità
Pubblicità
Indietro
Top