- Messaggi
- 26,927
- Reazioni
- 14,675
- Punteggio
- 244
i problemi di cui parlo sono quelli...E i driver penosi...
Segui il video qui sotto per vedere come installare il nostro sito come web app sulla tua schermata principale.
Nota: Questa funzionalità potrebbe non essere disponibile in alcuni browser.
Pubblicità
i problemi di cui parlo sono quelli...E i driver penosi...
No non puoi avere un idea della situazione pfutura prendendo ad esempio giochi che sono rotti, oltretutto non parliamo nemmeno di qualcosa di next gen ma di opld genLe relative performance contengono anche dati di giochi usciti 3-4 anni fa. Se vuoi avere un'idea più definita della situazione futura (perchè è di questo che stiamo parlando) bisogna isolare solo i titoli usciti di recente. Finora TUTTE le uscite da dicembre ad oggi presentano uno scenario simile a quello mostrato dai grafici precedenti, con l'eccezione di Atomic Heart. Titoli mal ottimizzati? Sicuramente. Ma pensi davvero che d'ora in poi, dopo aver visto 4-5 uscite di fila usciti in queste condizioni, la situazione sarà diversa?
i problemi di cui parlo sono quelli...
Infatti sono il primo a dire che una 4070 liscia piazzata bene potrebbe essere davvero interessante. Tutto il ragionamento fatto non è volto a decretare quale sia la migliore scheda, bensì ad analizzare se la 4070 Ti sia un investimento da fare in ottica di giocare in futuro in 4K nativi. Se invece si parla di tecnologie, il DLSS3 ce l'ha la 4070 Ti come ce l'avrà la 4070 liscia. Quindi anche se venisse piazzata in EU a 700€, comunque lo reputerei un acquisto più sensato di una 4070 Ti a 900€.
Per quanto riguarda i driver io non ho problemi con la mia, ma l'esperienza del singolo non fa la verità assoluta.
a parte che ci sono giochi usciti 3 anni fa giocatissimi, quindi non vedo il problema. Ma quanto dici non è vero. Non sono TUTTE le uscite da dicembre ma solo 3 delle uscite ad aver avuto problemi.Le relative performance contengono anche dati di giochi usciti 3-4 anni fa. Se vuoi avere un'idea più definita della situazione futura (perchè è di questo che stiamo parlando) bisogna isolare solo i titoli usciti di recente. Finora TUTTE le uscite da dicembre ad oggi presentano uno scenario simile a quello mostrato dai grafici precedenti, con l'eccezione di Atomic Heart. Titoli mal ottimizzati? Sicuramente. Ma pensi davvero che d'ora in poi, dopo aver visto 4-5 uscite di fila usciti in queste condizioni, la situazione sarà diversa?
Infatti su questo sono d'accordo. Non a caso ho detto che non la considero la entry level per il 4K nel 2023. Questo non vuol dire però che non ci si può giocare a dettagli medi o con il DLSS attivo.se hai preso una 3070 per giocare in 4K, hai sbagliato dal principio. Oggi puoi farlo ? Certo, con dettagli medi puoi farlo.
Ma quello non è "entry level"... è un adattarsi per via di un acquisto errato.
Che la 3070 non fosse idonea al 4K lo si sapeva anche nel 2020 quando è uscita.
Ma stiamo parlando di gaming 4K o 1440p? Stiamo parlando di performance o uso della VRAM?Il fatto che OGGI, HL sia perfettamente giocabile a 1440P con 8 GB di VRAM lo ignoriamo bellamente vero ?
E guarda caso i possessori di schede Radeon, che hanno il frame buffer come unico punto di forza, tendono ad ignorarlo più di altri
RE4 gira a 1440P con una 3070, ed anche li le patch stanno risolvendo i problemi.
resta TLOU, ma è solo questione di tempo.
Io la penso diversamente. Se devo spendere 300€ in più devo avere un'esperienza migliore in maniera nettamente percepibile. Con i giochi del 2023 (e possiamo sbattere i pugni sul tavolo quanto vogliamo, i giochi che usciranno d'ora in poi andranno sempre così, come è sempre stato) si è visto che dove la 6800XT/RTX3080 va sotto i 60 ci va anche la 4070 Ti. 300€ per giocare a 39fps anziché 32? No grazie. Il vero stacco prestazionale lo si ha in RT a 1440p. È lì il valore aggiunto della scheda.Se anche fosse come dici (e credo che il DLSS 3 faccia ancora più la differenza) per me un anno in più vale quei 300 euro eccome. Io oggi per varie ragioni considero più sensato spendere 900 euro per una 4070Ti che 600 euro per una 6800XT. Chiaramente tolgo la 3080 dall'equazione perché ai prezzi a cui si trova non ha alcun senso (prendo una 4070Ti direttamente).
Peraltro se una 3070, uscita nel 2020, va ancora bene con tutto nel 2023, non vedo perché tra 3 anni la 4070Ti non debba fare lo stesso. Anche la 1070Ti oggi è ancora usabile, fatte le dovute regolazioni, con soddisfazione.
Per me è importante distinguere tra chi una scheda la possiede già e chi la deve prendere. Se possiedi una 3080 o una 6800XT, sono d'accordissimo nel non cambiarla (e non certo per una 4070 Ti !). Se invece parliamo di un acquisto da fare ora, non sono schede da considerare.
Facciamo così, lasciamo perdere il discorso del bus e guardiamo i numeri (quelli dei benchmark di cui sopra): quando la 6800XT non mi arriva a 60fps, non ci arriva neanche la 4070 Ti. Quale miglioramento in termini di quality of life si ha in 4K nativi con questi 300€ in più? Sui 1440p invece la 4070 Ti riesce ad avere performance molto superiori (RT OFF) o enormemente superiori (RT ON). Il vantaggi è tutto lì. È cosa da poco? No, ma l'importante è esserne consapevoli.parli di "quel bus" ripetendo un meme che gira sul web senza senso. Può tu non sappia esattamente cosa implica.
Ti rendi conto che il bus che continui a denigrare è di 192 bit ? La tua 6800XT ha un bus da 256 bit, quindi poco più largo, ma la VRAM disponibile per la 4070Ti è di 21 Gbps mentre nella tua 6800XT come nella 6900XT è solo 16 Gbps. Il bus è un numero che da solo non significa nulla. La banda disponibile con le due soluzioni è pressoché identica (504 Gb/s vs 512 Gb/s), quindi se era idonea la 6900XT adesso lo è la 4070Ti.
Infatti su questo sono d'accordo. Non a caso ho detto che non la considero la entry level per il 4K nel 2023. Questo non vuol dire però che non ci si può giocare a dettagli medi o con il DLSS attivo.
Ma stiamo parlando di gaming 4K o 1440p? Stiamo parlando di performance o uso della VRAM?
Io la penso diversamente. Se devo spendere 300€ in più devo avere un'esperienza migliore in maniera nettamente percepibile. Con i giochi del 2023 (e possiamo sbattere i pugni sul tavolo quanto vogliamo, i giochi che usciranno d'ora in poi andranno sempre così, come è sempre stato) si è visto che dove la 6800XT/RTX3080 va sotto i 60 ci va anche la 4070 Ti. 300€ per giocare a 39fps anziché 32? No grazie. Il vero stacco prestazionale lo si ha in RT a 1440p. È lì il valore aggiunto della scheda.
Attualmente la 4070 Ti occupa una posizione in cui non ci sono competitors. Non a caso la 7900 XT non la consiglia nessuno proprio perché in RT non performa come la 4070 Ti, mentre in raster, pur andando meglio, si posiziona esattamente nella stessa zona "non abbastanza meglio in 4K della mia 6800XT/3800 e in 1440p faccio già 100fps".
Te l'ho scritto sopra: se a 60 FPS non ci arrivi, scali il dettaglio (almeno su alcuni paramteri) fino ad avvicinarti, e la differenza diventa importante.Facciamo così, lasciamo perdere il discorso del bus e guardiamo i numeri (quelli dei benchmark di cui sopra): quando la 6800XT non mi arriva a 60fps, non ci arriva neanche la 4070 Ti. Quale miglioramento in termini di quality of life si ha in 4K nativi con questi 300€ in più? Sui 1440p invece la 4070 Ti riesce ad avere performance molto superiori (RT OFF) o enormemente superiori (RT ON). Il vantaggi è tutto lì. È cosa da poco? No, ma l'importante è esserne consapevoli.
Tutto dipende dal piazzamento. A 650€ una 3080 con DLSS3 e 186W di consumi sarebbe il miglior affare da diversi anni a questa parte.occhio a non avere aspettative eccessive per la 4070...
La stanno castrando parecchio per non pestarsi i piedi.
Aspettati una 3080 (se non consideri il DLSS 3).
Ma non è una questione di giochi con problemi vs. giochi patchati. RE4 gira bene. Il discorso è: ho un miglioramento tangibile in 4K tra una 4070 Ti e una 6800XT? La risposta è al momento affermativa solo per Atomic Heart.a parte che ci sono giochi usciti 3 anni fa giocatissimi, quindi non vedo il problema. Ma quanto dici non è vero. Non sono TUTTE le uscite da dicembre ma solo 3 delle uscite ad aver avuto problemi.
La soluzione più semplice è non acquistare giochi al day 1![]()
Quindi oggi fai 60+ fps in 4K con una 4070 Ti, mentre le performance della 6800 XT non sono cambiate di una virgola? Ci sono dei test aggiornati?continui ad usare un termine di paragone che NON è quello di oggi. Se fanno i test dei giochi al day 1, dovrebbero usare giochi che non abbiano evidenti errori. Hogwarts legacy oggi non è più quello visto li.
Performance ed uso della VRAM non possono essere slegati, specie in un gioco dove il crollo di performance era legato ad un memory leakage pesante. Risolto quello, anche le performance cambiano.
Scusami ma per quanto riguarda la prima affermazione non sono per niente d'accordo. Sono gli fps che contano quando si fa un paragone, non la percentuale. Non è che uno compra una GPU più costosa piuttosto che un'altra per passare da 32 a 39 fps perché ehi, 39 fps sono il 7% in più!Le differenze si calcolano percentualmente: se tu vedi 7 FPS di differenza su 40, la differenza è sostanziale, se ne vedi 7 su 140, è risibile.
Tra giocare a 32 e 39 FPS la differenza c'è eccome: quando scendi sotto i 60 FPS, ogni FPS salvato migliora l'esperienza di gioco.
è evidente e palese che se la tua scheda fa 39 FPS, non terrai il settaggio su Ultra ma inizierai a scalare su High, ed a quel punto quella percentuale sensibile di differenza resta, passando da 45 a 56 FPS (numeri a caso per farti un esempio) fanno una grande differenza.
Te l'ho scritto sopra: se a 60 FPS non ci arrivi, scali il dettaglio (almeno su alcuni paramteri) fino ad avvicinarti, e la differenza diventa importante.
Tutto dipende dal piazzamento. A 650€ una 3080 con DLSS3 e 186W di consumi sarebbe il miglior affare da diversi anni a questa parte.
ma io non ho mai considerato l'upgarde 6800XT->4070Ti, bensì la SCELTA tra una 6800Xt ed una 4070Ti oggi come oggi.Ma non è una questione di giochi con problemi vs. giochi patchati. RE4 gira bene. Il discorso è: ho un miglioramento tangibile in 4K tra una 4070 Ti e una 6800XT? La risposta è al momento affermativa solo per Atomic Heart.
Quindi oggi fai 60+ fps in 4K con una 4070 Ti, mentre le performance della 6800 XT non sono cambiate di una virgola? Ci sono dei test aggiornati?
Chiedo perché in genere se fixano un gioco le performance cambiano per tutti...
Scusami ma per quanto riguarda la prima affermazione non sono per niente d'accordo. Sono gli fps che contano quando si fa un paragone, non la percentuale. Non è che uno compra una GPU più costosa piuttosto che un'altra per passare da 32 a 39 fps perché ehi, 39 fps sono il 7% in più!
Le impostazioni le puoi abbassare sia nella scheda da 600€ che in quella da 900, e non è affatto detto che delta si mantenga lineare (anzi, il più delle volte non lo è).
le battaglie "sub 60 FPS" le vedi perché ti ostini a tenere il dettaglio su Ultra. Abbassalo ad High ed usa il DLSS ed ecco che i 60 FPS arrivano facili.Fermo restando che tutto il discorso è senza senso: 39fps vs 32? 45 vs 56? Con una GPU che costa quasi come 2 console non esiste che si giochi come su console. Quando lo scenario è questo si abbassa la risoluzione a 1440p o si attiva il DLSS/FSR. Non so come sono le performance in HL dopo la patch, ma se la GPU non tiene i 60 con almeno la stessa qualità degli effetti visivi su console, allora non è una scheda da 4K nativi per questo gioco.
Spendere delle cifre considerevoli in più per delle battaglie sub-60 fps è un'assurdità, esattamente come lo è quando si parla di 68 vs. 73 fps o giù di lì...
Tutto dipende dal piazzamento. A 650€ una 3080 con DLSS3 e 186W di consumi sarebbe il miglior affare da diversi anni a questa parte.
voglio essere ottimista: 699 euro per la FE. Ma le custom le vedo sopra i 730 euro anche io...650 euro te lo sogni per una 4070
Io prevedo che inizialmente sarà almeno 750 considerando che il prezzo di lancio sarebbe 599
Già in Italia con l'iva al 22% si arriva a 730
Se si è fortunati si trova a 750 me visto il periodo per le custom prevedo più un 800 e rotti
Però c'è da tenere conto anche di un'altra cosa. Qualche pagina indietro proprio io ho chiesto un confronto tra le nVidia e le AMD e praticamente tutti hanno confermato che le schede AMD sono ottimizzate male e la stessa AMD è inadempiente nel rilasciare aggiornamenti. In conclusione, lato gaming, è più consigliabile acquistare nVidia se non si vuole cadere in circoli viziosi di crash e altri fastidi che arrecano disagi durante la run.Riassunto: in 4K tra una 6800 XT (600€) e una 4070 Ti (900€) stiamo parlando di differenze che vanno da 3 a 7fps! Dove la 6800 XT è sotto i 60 lo è anche la 4070 Ti, dove la 4070 Ti è sopra i 60 lo è anche la 6800 XT.
P.s. Quando dici solo tre giochi hanno saturato 8gb di Vram, dovresti porti un quesito, ovvero, sono tutti e tre giochi recenti e non roba del 2018!Prendiamo un lasso di tempo che va dal 2015 al 2023, saranno usciti più di 20.000 videogiochi ( numero a caso per esempio ), ora di tutti questi giochi soltanto:
1-The Last of Us parte 1 Remake.
2- Hogwards Legacy.
3- Resident evil 4 Remake.
Solo tre giochi hanno saturato 8GB di vram in 2560x1440p e guarda caso tutti e tre non brillano certo per una buona ottimizzazione. Ora due di questi titoli hanno già risolto il problema della vram, mentre The Last Of Us è solo questione di tempo.
Quindi ricapitoliamo, secondo il tuo ragionamento e quello di altri utenti, 19.997 Giochi, dove 8GB non solo bastano ma sono anche abbondanti, devono essere ignorati, mentre quei tre titoli, ottimizzati con i piedi devono essere presi in considerazione per affermare che 8GB di vram sono pochi, giusto ?
Se la mettiamo cosi allora SI, 8GB di vram sono pochi per giocare il 0,0000000000001% dei giochi ( ottimizzati male ) in commercio.
Io invece dico che 8GB di vram bastano e avanzano.
8GB sono bastati per far girare Cyberpunk 2077 tutto al max con ray tracing, sono bastati per far girare Read dead redemption 2 tutto al max, Control con ray tracing, Metro exodus Enchanted edition con ray tracing, plague tale requiem al max con ray tracing, tutti, TUTTI giochi graficamente superiori ( e non di poco ) ai titoli mal ottimizzati citati sopra.
non userei il termine ottimizzate male. Anzi alcuni giochi vedono le Radeon letteralmente volare.Però c'è da tenere conto anche di un'altra cosa. Qualche pagina indietro proprio io ho chiesto un confronto tra le nVidia e le AMD e praticamente tutti hanno confermato che le schede AMD sono ottimizzate male e la stessa AMD è inadempiente nel rilasciare aggiornamenti. In conclusione, lato gaming, è più consigliabile acquistare nVidia se non si vuole cadere in circoli viziosi di crash e altri fastidi che arrecano disagi durante la run.