Da RTX 3060 TI a RX 6800 XT, chiedo consigli :)

  • Autore discussione Autore discussione Giulk
  • Data d'inizio Data d'inizio
Pubblicità
La 4080 è una gpu da 1440p giocato come si deve.

no, posso mostrarti un sacco di giochi dove non arrivo manco al 90% di utilizzo con una 4080 a 1440P.
Mi sto stancando della disinformazione che fai, perché influenzi scelte economiche basandoti su sensazioni personali e, a mio modesto parere, ignoranza in materia (ignoranza non nel senso offensivo del termine, ma da intendersi come IGNORI l’argomento, specifichiamolo bene).

In HL regge il 2160p con settaggi maxati con criterio e senza dlss? NO

questa è una TUA e solo TUA opinione su come si gioca. I settaggi “maxati” si riferiscono al l’ignoranza di cui parlo sopra. Se un settaggio non mi fornisce alcun vantaggio visibile ma mi abbassa il frame rate di 10 FPS, io lo tengo al massimo solo perché “fa figo” ? No. Finché la scheda mi sforna millemila FPS e non ho voglia di sbattermi ok, posso anche usare il preset “ULTRA” per comodità. Ma quando non è il caso, come in Hogwarts Legacy ottimizzato con i piedi, mi studio i settaggi e recupero facilmente 20 FPS senza perdere nulla.

In TLOUII regge il 2160p con settaggi maxati con criterio e senza dlss?NO

e torniamo al solito discorso. Se tu prendi un gioco da PlayStation (da PlayStation !!!) portato con i piedi e metti tutto ad Ultra a caso, il problema non sono solo gli sviluppatori, ma sei anche tu.

In RE4 ha un buon frame rate ia 2160, circa 70-80fps
Questo non preclude la possibilità di giocare a 2160p con una 4080, ma la vedo più come un’ottima gpu per il 1440p.

e questo lo dici senza competenze in materia, perché io, che la 4080 ce l’ho nel case, la vedo al 85% di utilizzo in un gioco di 2 anni fa e ti dico che non è affatto ottima per il 1440P. È ottima per mettere una pezza alle sciocchezze che fanno gli sviluppatori rilasciando giochi che sono poco più che beta.
In merito alla 3080Ti, si, negli ultimi giochi, la vedo più come una gpu da 1080p; fortunatamente i tempi vanno avanti, i giochi chiedono risorse, e l’hardware(non grazie ad Amd) migliora.

e questo mi dimostra che tu non sai davvero di cosa stai parlando.
Una 3080Ti definita come scheda da 1080P chiude ogni discorso sulle tue competenze in materia. E spero apra gli occhi a chi per sbaglio stava ascoltando i tuoi consigli con un minimo di interesse.

Vorrei inoltre fare una precisazione per chi si lamenta dei giochi che girano male su 3080 o 3070.
Ragazzi, il prezzo di queste gpu era drogato dal mercato, ovvero, aver pagato una 3080 €1200 o una 3070 €900, non significa che siano ottime gpu che debbano durare anni, no, erano gpu il cui loro valore reale di mercato era di €600/700 per la 3080 e di €400/500 per la 3070, quindi no, non è sempre colpa dei giochi che ritenete mal ottimizzati, ma di gpu che avete pagato un’esagerazione e che oggi, semplicemente, richiedete troppo da loro.
Ma di cosa parli ?
Io ho pagato la 3070 esattamente 619 euro, e la 3080 la pagai 909 euro. Quello era il loro valore di mercato al lancio (diciamo la 3080 una cinquantina di euro in più, ma parliamo di un modello di fascia alta, non una FE o una custom base).
Oggi quelle schede vanno benissimo per chiunque abbia un minimo di competenza e sappia come settare un PC.
 
no, posso mostrarti un sacco di giochi dove non arrivo manco al 90% di utilizzo con una 4080 a 1440P.
Mi sto stancando della disinformazione che fai, perché influenzi scelte economiche basandoti su sensazioni personali e, a mio modesto parere, ignoranza in materia (ignoranza non nel senso offensivo del termine, ma da intendersi come IGNORI l’argomento, specifichiamolo bene).



questa è una TUA e solo TUA opinione su come si gioca. I settaggi “maxati” si riferiscono al l’ignoranza di cui parlo sopra. Se un settaggio non mi fornisce alcun vantaggio visibile ma mi abbassa il frame rate di 10 FPS, io lo tengo al massimo solo perché “fa figo” ? No. Finché la scheda mi sforna millemila FPS e non ho voglia di sbattermi ok, posso anche usare il preset “ULTRA” per comodità. Ma quando non è il caso, come in Hogwarts Legacy ottimizzato con i piedi, mi studio i settaggi e recupero facilmente 20 FPS senza perdere nulla.



e torniamo al solito discorso. Se tu prendi un gioco da PlayStation (da PlayStation !!!) portato con i piedi e metti tutto ad Ultra a caso, il problema non sono solo gli sviluppatori, ma sei anche tu.



e questo lo dici senza competenze in materia, perché io, che la 4080 ce l’ho nel case, la vedo al 85% di utilizzo in un gioco di 2 anni fa e ti dico che non è affatto ottima per il 1440P. È ottima per mettere una pezza alle sciocchezze che fanno gli sviluppatori rilasciando giochi che sono poco più che beta.


e questo mi dimostra che tu non sai davvero di cosa stai parlando.
Una 3080Ti definita come scheda da 1080P chiude ogni discorso sulle tue competenze in materia. E spero apra gli occhi a chi per sbaglio stava ascoltando i tuoi consigli con un minimo di interesse.


Ma di cosa parli ?
Io ho pagato la 3070 esattamente 619 euro, e la 3080 la pagai 909 euro. Quello era il loro valore di mercato al lancio (diciamo la 3080 una cinquantina di euro in più, ma parliamo di un modello di fascia alta, non una FE o una custom base).
Oggi quelle schede vanno benissimo per chiunque abbia un minimo di competenza e sappia come settare un PC.
Il tuo discorso è giusto, concordo, ma il trend del mercato videoludico purtroppo, non segue questo ragionamento.
UE 5.1 spezza la 3080ti a 1440p, e non sono i giochini del 2019/2020 che postate come riferimento per verificare le performance attuali di una gpu, nono, sono i giochi attuali, e quelli che devono venire, ed in particolar modo UE5.
Quindi, io oggi compro una 3080Ti, tutto bello fiducioso di maxare i titoli a 1440p(con scelta logica), poi mi arriva Alan Wake II, o uno Starfield, e me la inchioda a quella risoluzione; perché proprio questo scenario accadrà, e non si scappa da questo.
Poi, se mi dici che, la 3080Ti è una Gpu da 2160p per i giochi del 2016, da 1440p per i giochi del 2019-2022, allora SI, sono d’accordo con te.
Puoi giocare benissimo a 1440p con una 3080Ti, ma non nello stesso modo con cui lo facevi due anni fa, è semplice progresso, quindi, se vuoi goderti il 1440p per bene, la 3080Ti oggi, non è idonea.
 
Ka 3060 permette di giocare in QHD @ 144hz

Visualizza allegato 456939

Visualizza allegato 456941


La media è di 111 fps dove negli FPS raggiunge abbondantemente 1 140 e i 60 in tutti i GDR

Quindi è una scheda che va bene anche per il QHD 144hz non lo dico io lo dicono i numeri!

Se poi parliamo di Ray Tracing cambiarla con una 6800xt è semplicemente follia
Ah se intendete dire "adatta per i monitor 144Hz" allora va bene, ma non va esattamente a saturare quel framerate (non che serva a qualcosa, ben inteso)...
 
Ma se non serve saturarli tutti perché spendere mila euro per poterlo fare? È un controsenso.
Ma è un forum di tecnologia, o di retrogaming?
Come non serve saturarli??? allora torniamo ai 50Hz :(
I 144Hz li noti, rispetto ai 100Hz, o ai 60Hz, più difficile notare differenze dai 160Hz in su, per quanto riguarda la ''fluidità''.
 
Il tuo discorso è giusto, concordo, ma il trend del mercato videoludico purtroppo, non segue questo ragionamento.
UE 5.1 spezza la 3080ti a 1440p, e non sono i giochini del 2019/2020 che postate come riferimento per verificare le performance attuali di una gpu, nono, sono i giochi attuali, e quelli che devono venire, ed in particolar modo UE5.
Quindi, io oggi compro una 3080Ti, tutto bello fiducioso di maxare i titoli a 1440p(con scelta logica), poi mi arriva Alan Wake II, o uno Starfield, e me la inchioda a quella risoluzione; perché proprio questo scenario accadrà, e non si scappa da questo.
Poi, se mi dici che, la 3080Ti è una Gpu da 2160p per i giochi del 2016, da 1440p per i giochi del 2019-2022, allora SI, sono d’accordo con te.
Puoi giocare benissimo a 1440p con una 3080Ti, ma non nello stesso modo con cui lo facevi due anni fa, è semplice progresso, quindi, se vuoi goderti il 1440p per bene, la 3080Ti oggi, non è idonea.
Quindi tu parli di UE 5.1 che non è ancora uscito e ci dici che “spezza la 3080Ti“ basandoti su una tua idea che non ha alcuna base pratica 😵‍💫
Sempre meglio…

nessuno, e ribadisco NESSUNO, dei giochi che tu hai sin qui usato per giustificare le tue assurde convinzioni usano UE 5.1
HL usa UE 4, che ormai è alla frutta e che certamente non è ottimizzato per questi giochi next gen.
RE4 usa il RE Engine, vecchio di anni.
Infine TLOU è un porting di un engine preistorico in cui ND ha aggiunto tutte le opzioni di questo mondo ma è stato definito come UN DISASTRO dai recensori di tutto il mondo.

La 3080 e 3080Ti sono schede video adatte per il 1440P, che potevano far girare anche il 4K ma con qualche limite.

Ripeto che le tue considerazioni sono basate su preferenze personali prive di senso (servono millemila FPS e senza DLSS con RT nativo) e non su analisi tecniche.
E quelle sul RE 5 sono speculazioni su qualcosa che non hai ancora visto.
 
3080TI per il fullHD non si può sentire, ho cambiato da pochi mesi la mia grandiosa Zotac AMP Edition 1060 6 GB che mi ha permesso di giocare benissimo a quasi tutto.
Se le versioni PC dei giochi vengono rilasciate con i piedi non si può costringere l'utenza a comprare hardware estremo, sono gli sviluppatori che hanno fatto male il loro lavoro.
Esempio pratico: ho la 6750XT e 32 GB di ram accoppiati ad un 5700X, con i driver di febbraio rilasciati da AMD avevo occasionali stutter su Final Fantasy 7 Reunion, un gioco che praticamente gira su hardware PS4.
Prima dell'uscita di quei fatidici driver giocavo una bomba, dopo un paio di settimane sono usciti driver correttivi e magicamente tutto è tornato come prima.
Non è che se un gioco non va cambio hardware, ma che discorsi sono?
 
Io penso che siamo alla follia nel dire che per giocare in fhd serve una 3080.
Follia pura così come dire che una 3060ti non vada bene per il fhd.
Poi parlate di engine ancora non usciti. Ma avete mai usato un engine?? Io si sia Unreal che unity 3D che in confronto fa pena.
E sapete che i giochi possono essere ottimizzati? Spesso e volentieri si rifanno le texture dei giochi etc etc per non appensantire il carico?
Io ho la ps5 e tlou lo sto giocando li in 4k 120hz su tv OLED.
Sulla ps5 funziona da dio e sul pc da gaming no! Non può essere colpa degli sviluppatori che fanno pena e Mal ottimizzazione? Per spingere a vendere più hardware nuovo a caso?
 
In realtà ho seguito tutta la discussione con interesse per cercare di capire cosa fare 😙 chiaro non vado di fretta, la 3060 TI va bene per la maggior parte dei giochi in 1080p e tra poco escono le nuove 4xxx Nvidia di fascia media ( la 4070 liscia in primis ) ma ci sono cose su cui rimango indeciso, per esempio, non ho capito intanto è se la 6800 XT è appetibile o no come GPU, street price è sotto i 600 euro e non mi sembra malaccio, dai test che vedo in giro sulla rete, in diversi giochi va anche più forte di una 4070 TI, chiaramente escludendo RT e DLSS.
 
La 6800xt a parere mio è un ottima scheda, spesso messa a confronto con la 3080 che poi è la sua reale concorrente, i benchmark su alcuni giochi hanno mostrato che le schede sono molto vicine, e che la 6800xt a volte supera la 3080, ma con rt e dlls non c'è storia con Nvidia. Ci sono due cose da prendere in considerazione, i driver amd che in alcuni casi hanno dato instabilità e l'rt e dlls che sfrutti su una scheda Nvidia. L'altra opzione che ti si pone è aspettare l'uscita della 4070, ma qui il discorso è soggettivo, nel senso se hai voglia di aspettare, il prezzo e il budget che hai programmato per l'acquisto della scheda. Non parlo del prezzo🤐 ti sarai fatto un'idea seguendo le molteplici discussioni😆
 
Ultima modifica:
In realtà ho seguito tutta la discussione con interesse per cercare di capire cosa fare 😙 chiaro non vado di fretta, la 3060 TI va bene per la maggior parte dei giochi in 1080p e tra poco escono le nuove 4xxx Nvidia di fascia media ( la 4070 liscia in primis ) ma ci sono cose su cui rimango indeciso, per esempio, non ho capito intanto è se la 6800 XT è appetibile o no come GPU, street price è sotto i 600 euro e non mi sembra malaccio, dai test che vedo in giro sulla rete, in diversi giochi va anche più forte di una 4070 TI, chiaramente escludendo RT e DLSS.
tu non devi cambiare scheda devi cambiare monitor
 
Pubblicità
Pubblicità
Indietro
Top