UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Mi sono preso del tempo per leggere le pagine passate ma in effetti la materia è molto complessa e si può facilmente creare confusione.

Spesso si usa genericamente il termine bottleneck (collo di bottiglia), però ce ne sono tante versioni:
  • CPU bottleneck = quando il processore non riesce a seguire il passo della GPU che finisce per rallentarla
  • Hardware bottleneck = quando un componente hardware è lento o ha un problema e finisce per rallentare la GPU
  • Software bottleneck = quando un software, applicazione o gioco o driver stesso, non è ottimizzato o è realizzato male (es. crea shaders errati) e rallenta la GPU (direttamente o indirettamente)
  • System-level bottleneck = quando qualcosa di generico a livello di sistema, rallentano la GPU
In questo post alcuni si riferiscono a bottleneck solo nello specifico caso del CPU bottleneck, mentre altri lo intendono nel significato più ampio come Hardware bottleneck. In via generale se la CPU non è al 100% del carico non è detto che non stia generando (CPU) bottleneck, quindi sbagliate voi in questo caso, così come se un software è ottimizzato/realizzato male e si genera Software bottleneck, non è detto che cambiando CPU (o tutto l'hardware) il problema possa essere risolto (es. se i prolemi sono i driver), quindi in questo caso sbaglia @Kal El . Per voi però molto spesso bottleneck è automaticamente sinimo di CPU bottleneck. Ma ripeto: la materia è comunque estremamente complessa, forse al di là delle competenze degli ingegneri di NVIDIA/AMD/Intel stessi!!!

Il senso del discorso di questo post, fondamentalmente, diventa però una pura opinione personale, e sono queste 2 visioni:
  1. Mi compro una 4090 per avere il massimo della qualità grafica a 4K fregandomene degli FPS.
  2. Mi compro una 4090 per avere il massimo degli FPS a 1440p con il massimo dei dettagli.
Questo era il nocciolo dello scontro. Con un 5800X non faccio CPU BOTTLENECK con una 4090, infatti il processore è perfettamente in grado di sostenere la mia GPU. Però quando sei un purista degli FPS, a quel punto vuoi necessariamente un 7800X3D. Ed è a quel punto che nasce la discussione: molti di noi non la vedono in questo modo, me compreso, alcuni altri invece se ne fregano.

In via generale, comunque, se il motore 3D non è cappato internamente, se non c'è il vertical sync attivo e se il gioco è sufficientemente ben realizzato (intendo anche a livello di quantità di grafica che deve spostare), quando la GPU scende al di sotto del 90% di utlizzo possiamo affermare che c'è System-level bottleneck.

Poi sta a noi indagare cos'è (e magari alla fine sono SOLO i driver)...

Se possiamo fare un paragone nelle automobili, qui abbiamo 2 visioni: chi vuole spendere molti soldi per una macchina comoda e spaziosa e chi invece vuole il massimo della velocità e delle prestazioni ... anche se magari ha i sedili in legno e non ha portapacchi.
si ma questo noi lo sappiamo è che "il sommo" afferma che basta che la percentuale della scheda sia più bassa ed è CPU BOTTLENECK!

Che uno compra una 4090 e voglia mettere la migliore CPU in commercio ci sta, quello che non ci sta è affermare che processori come 5800x o 5900x FANNO BOTTLENECK quando la GPU in qualche caso lavora meno!

Questo non sta nè in cielo nè in terra! E' disinformazione pura
 
Mi sono preso del tempo per leggere le pagine passate ma in effetti la materia è molto complessa e si può facilmente creare confusione.

Spesso si usa genericamente il termine bottleneck (collo di bottiglia), però ce ne sono tante versioni:
  • CPU bottleneck = quando il processore non riesce a seguire il passo della GPU che finisce per rallentarla
  • Hardware bottleneck = quando un componente hardware è lento o ha un problema e finisce per rallentare la GPU
  • Software bottleneck = quando un software, applicazione o gioco o driver stesso, non è ottimizzato o è realizzato male (es. crea shaders errati) e rallenta la GPU (direttamente o indirettamente)
  • System-level bottleneck = quando qualcosa di generico a livello di sistema, rallentano la GPU
In questo post alcuni si riferiscono a bottleneck solo nello specifico caso del CPU bottleneck, mentre altri lo intendono nel significato più ampio come Hardware bottleneck. In via generale se la CPU non è al 100% del carico non è detto che non stia generando (CPU) bottleneck, quindi sbagliate voi in questo caso, così come se un software è ottimizzato/realizzato male e si genera Software bottleneck, non è detto che cambiando CPU (o tutto l'hardware) il problema possa essere risolto (es. se i prolemi sono i driver), quindi in questo caso sbaglia @Kal El . Per voi però molto spesso bottleneck è automaticamente sinimo di CPU bottleneck. Ma ripeto: la materia è comunque estremamente complessa, forse al di là delle competenze degli ingegneri di NVIDIA/AMD/Intel stessi!!!

Il senso del discorso di questo post, fondamentalmente, diventa però una pura opinione personale, e sono queste 2 visioni:
  1. Mi compro una 4090 per avere il massimo della qualità grafica a 4K fregandomene degli FPS.
  2. Mi compro una 4090 per avere il massimo degli FPS a 1440p con il massimo dei dettagli.
Questo era il nocciolo dello scontro. Con un 5800X non faccio CPU BOTTLENECK con una 4090, infatti il processore è perfettamente in grado di sostenere la mia GPU. Però quando sei un purista degli FPS, a quel punto vuoi necessariamente un 7800X3D. Ed è a quel punto che nasce la discussione: molti di noi non la vedono in questo modo, me compreso, alcuni altri invece se ne fregano.

In via generale, comunque, se il motore 3D non è cappato internamente, se non c'è il vertical sync attivo e se il gioco è sufficientemente ben realizzato (intendo anche a livello di quantità di grafica che deve spostare), quando la GPU scende al di sotto del 90% di utlizzo possiamo affermare che c'è System-level bottleneck.

Poi sta a noi indagare cos'è (e magari alla fine sono SOLO i driver)...

Se possiamo fare un paragone nelle automobili, qui abbiamo 2 visioni: chi vuole spendere molti soldi per una macchina comoda e spaziosa e chi invece vuole il massimo della velocità e delle prestazioni ... anche se magari ha i sedili in legno e non ha portapacchi.
Ma le scelte personali non si discutono, finché non vengono spacciate per realtà assolute.
Ci sarebbe da discutere su cosa sia un “purista degli FPS” (e ribadisco che il problema si risolverebbe semplicemente disattivando Rivatuner, ed ecco che sopra i 60/70 FPS magicamente ogni gioco andrebbe bene…), ma concediamo pure questa licenza poetica.

Nello specifico caso, la GPU scende sotto il 90% per il semplice motivo che il “purista” di cui sopra ha deciso di prendere una scheda video nata per il 4K ed usarla in QHD. Normale che in alcuni giochi (i mattoni peggio realizzati come TW3 che continua ad usare come esempio… un engine vecchio di anni a cui hanno attaccato il RT posticcio … 🤦🏻‍♂️) anche in QHD arranchi, ma è altrettanto normale che in moltissimi altri tale GPU passi il tempo a giocare a tressette tra un frame generato e il successivo.
QUindi in questo caso parlerei di “user-bottleneck” più che altro 🤣 visto che è la scelta sconsiderata dell’utente a causare un utilizzo ridotto della GPU.
Poi vogliamo dire che usando la CPU migliore sul mercato allora la situazione migliorerebbe ? Certo, ma come detto anche sopra da @wulff73 si va sopra il limite del monitor stesso e non ha alcun senso comunque.
 
Esatto, che poi nessuno qui sta criticando la sua scelta personale di fare un cambio eh ma semplicemente non far passare il messaggio sbagliato di un cambio necessario. Io stesso ho cambiato il 5900X, ma dare stupido a dire che l’ho cambiato per bottleneck, ma solo per la mia enorme passione nel provare sempre hardware nuovo. E nonostante questa mia passione se non avessi piazzato bene la vecchia piattaforma comunque non ci avrei speso il costo della piattaforma integralmente.
--- i due messaggi sono stati uniti ---

Secondo me l’esempio più realistico di bottleneck lo trovi nel video che ho linkato qualche post fa, Ryzen 4500 e AMD 6600 in full hd su The Last Of Us, fa vedere che fa 60fps con utilizzo cpu sopra 80% attiva fsr per fare qualche fps in più e niente gli fps restano gli stessi anche renderizzando a 360p!😅 cambiando cpu con un 5600 invece si evince che utilizzando fsr si passa dai 60fps del nativo fino ad 80fps con fsr. Ecco questo è il bottleneck. Passare da 130/140fps a 150/160 fps perché si è preso una cpu nuova per me è solo il margine di guadagno dato da una nuova cpu rispetto alla “vecchia”.
Ma io ho fatto tre cambi di CPU nessuno dei quali sensato: 5900X -> 12700K -> 13900K

solo perché le ho pagate poco o niente e volevo provare. Questo resta nostra facoltà, ma non mi sognerei mai di venire a dirvi che erano cambi sensati ! Se mi fossi tenuto il 5900X iniziale , andrebbe ancora benissimo con la 4080
 
Mi sono preso del tempo per leggere le pagine passate ma in effetti la materia è molto complessa e si può facilmente creare confusione.

Spesso si usa genericamente il termine bottleneck (collo di bottiglia), però ce ne sono tante versioni:
  • CPU bottleneck = quando il processore non riesce a seguire il passo della GPU che finisce per rallentarla
  • Hardware bottleneck = quando un componente hardware è lento o ha un problema e finisce per rallentare la GPU
  • Software bottleneck = quando un software, applicazione o gioco o driver stesso, non è ottimizzato o è realizzato male (es. crea shaders errati) e rallenta la GPU (direttamente o indirettamente)
  • System-level bottleneck = quando qualcosa di generico a livello di sistema, rallentano la GPU
In questo post alcuni si riferiscono a bottleneck solo nello specifico caso del CPU bottleneck, mentre altri lo intendono nel significato più ampio come Hardware bottleneck. In via generale se la CPU non è al 100% del carico non è detto che non stia generando (CPU) bottleneck, quindi sbagliate voi in questo caso, così come se un software è ottimizzato/realizzato male e si genera Software bottleneck, non è detto che cambiando CPU (o tutto l'hardware) il problema possa essere risolto (es. se i prolemi sono i driver), quindi in questo caso sbaglia @Kal El . Per voi però molto spesso bottleneck è automaticamente sinimo di CPU bottleneck. Ma ripeto: la materia è comunque estremamente complessa, forse al di là delle competenze degli ingegneri di NVIDIA/AMD/Intel stessi!!!

Il senso del discorso di questo post, fondamentalmente, diventa però una pura opinione personale, e sono queste 2 visioni:
  1. Mi compro una 4090 per avere il massimo della qualità grafica a 4K fregandomene degli FPS.
  2. Mi compro una 4090 per avere il massimo degli FPS a 1440p con il massimo dei dettagli.
Questo era il nocciolo dello scontro. Con un 5800X non faccio CPU BOTTLENECK con una 4090, infatti il processore è perfettamente in grado di sostenere la mia GPU. Però quando sei un purista degli FPS, a quel punto vuoi necessariamente un 7800X3D. Ed è a quel punto che nasce la discussione: molti di noi non la vedono in questo modo, me compreso, alcuni altri invece se ne fregano.

In via generale, comunque, se il motore 3D non è cappato internamente, se non c'è il vertical sync attivo e se il gioco è sufficientemente ben realizzato (intendo anche a livello di quantità di grafica che deve spostare), quando la GPU scende al di sotto del 90% di utlizzo possiamo affermare che c'è System-level bottleneck.

Poi sta a noi indagare cos'è (e magari alla fine sono SOLO i driver)...

Se possiamo fare un paragone nelle automobili, qui abbiamo 2 visioni: chi vuole spendere molti soldi per una macchina comoda e spaziosa e chi invece vuole il massimo della velocità e delle prestazioni ... anche se magari ha i sedili in legno e non ha portapacchi.
Il bottleneck come lo vediamo noi dipende in buona parte dalla incapacità/impossibilità di poter sfruttare l'hardware a disposizione degli sviluppatori. Ti faccio un paio di esempi:

1) THE LAST OF US: nonostante i difetti di gioventù della versione PC comunque il gioco mi carica TUTTI i 16 thread della CPU in ugual misura fino al 100%. Da questo punto vista, a qualsiasi risoluzione, la CPU darà tutto quello che può dare e normalmente il giocare non sarà mai un problema visto che il limite di bottleneck diventa normalmente la scheda video (ovviamente con CPU recenti e non dell'età della pietra);

2) MICROSOFT FLIGHT SIMULATOR: carica di lavoro al 100% un solo core tra quelli disponibili lasciando agli altri da fare qualche minchiata residuale (gestione audio, online, meteo). Da quello che ho letto in giro pare che il lavoro derivante dalla gestione della fotogrammetria utilizzata da ASOBO non si riesca a suddividere su più core e questo nonostante il passaggio da DX11 a DX12. La CPU risulta quindi occupata solamente al 20-30% nonostante, in certe situazioni, si facciano 40fps con una 4090 al 50% di utilizzo (a qualsiasi risoluzione con dettagli ULTRA). Per sfruttare al massimo la GPU avrei bisogno di un Ryzen che mi riesca a mantenere, con l' attuale IPC, circa i 9ghz in ST...

Mio esempio:

Detto questo risulta che comunque il sistema è meglio che sia bilanciato il più possibile...poi si va di preferenze personali. Io cerco in gaming di avere un PC che normalmente mi faccia almeno tra gli 80 ed i 100 fps costanti e senza sbalzi....poi se ne fa 116 bene ma anche se scende per mezzo secondo a 55 non è che mi do fuoco.
 
Ultima modifica:
Ma io ho fatto tre cambi di CPU nessuno dei quali sensato: 5900X -> 12700K -> 13900K

solo perché le ho pagate poco o niente e volevo provare. Questo resta nostra facoltà, ma non mi sognerei mai di venire a dirvi che erano cambi sensati ! Se mi fossi tenuto il 5900X iniziale , andrebbe ancora benissimo con la 4080
Esatto stessa cosa io, i miei cambi sono stati i7 7700K -> 3700X -> 5900X -> 7800X3D, di questi cambi il più sensato forse è stato il 3700X per l’i7 che comunque teneva botta benissimo alla 1080Ti in 1440p.
 
Il bottleneck come lo vediamo noi dipende in buona parte dalla incapacità/impossibilità di poter sfruttare l'hardware a disposizione degli sviluppatori. Ti faccio un paio di esempi:

1) THE LAST OF US: nonostante i difetti di gioventù della versione PC comunque il gioco mi carica TUTTI i 16 thread della CPU in ugual misura fino al 100%. Da questo punto vista, a qualsiasi risoluzione, la CPU darà tutto quello che può dare e normalmente il giocare non sarà mai un problema visto che il limite di bottleneck diventa normalmente la scheda video (ovviamente con CPU recenti e non dell'età della pietra);

2) MICROSOFT FLIGHT SIMULATOR: carica di lavoro al 100% un solo core tra quelli disponibili lasciando agli altri da fare qualche minchiata residuale (gestione audio, online, meteo). Da quello che ho letto in giro pare che il lavoro derivante dalla gestione della fotogrammetria utilizzata da ASOBO non si riesca a suddividere su più core e questo nonostante il passaggio da DX11 a DX12. La CPU risulta quindi occupata solamente al 20-30% nonostante, in certe situazioni, si facciano 40fps con una 4090 al 50% di utilizzo (a qualsiasi risoluzione con dettagli ULTRA). Per sfruttare al massimo la GPU avrei bisogno di un Ryzen che mi riesca a mantenere, con l' attuale IPC, circa i 9ghz in ST...

Mio esempio:

Detto questo risulta che comunque il sistema è meglio che sia bilanciato il più possibile...poi si va di preferenze personali. Io cerco in gaming di avere un PC che normalmente mi faccia almeno tra gli 80 ed i 100 fps costanti e senza sbalzi....poi se ne fa 116 bene ma anche se scende per mezzo secondo a 55 non è che mi do fuoco.
ma è quello che sto dicendo da una vita

Che uno voglia avere il sistema più "bilanciato" possibile specie se ha una scheda video potente non ci piove!

Ci sta

Quando dici a @Beex che il suo 5900x "boccheggia" in 4k perchè ha usato il DLSS e la GPU non sta al 100% FAI DISINFORMAZIONE

Quando dici a me in uno screen come dead Island 2 che il 10700k è in CPU bottleneck solo perché in QHD una 4080 non lavora la 100% quando con una scheda nvidia nemmeno con un 7800x3d lo fa

E' DISINFORMAZIONE

in tutti i casi che abbiamo visto vi è un "collo di sistema" spesso dovuto semplicemente ad una poca ottimizzazione software, che viene oltretutto accentuato dall'uso di risoluzioni più basse!

Stiamo cercando di dirlo da 50 pagine!

qui nessuno contesta o a mai contestato il fatto che una scheda potente vada possibilmente accoppiata ad un processore "adeguato" e se COMPRI una 4090 insieme a tutto il sistema chiaramente ahi i soldi e puoi anche spendere per un processore che ti offra le migliori prestazioni possibili ( se vuoi farlo)

Ma avere un 5900x con una 4090 rappresenta un problema ?

La risposta è NO non ci sono problemi

qui il vero problema è che ci sta uno che guarda lo screen di afterburner vede che ne so la percentuale di utilizzo di una GPU invece che al 99% sta al 70 e grida "CPU bottleneck"

Già detta cosi fa ridere e ci stanno utenti che si fanno condizionare e gli danno pure retta!

Prendiamo un caso più estremo come il mio

Un 10700k accoppiato con una 4080, non è una situazione certo ideale, perché consapevolmente in una situazione con un processore migliore si guadagnerebbero moltissimi frame.

Ma anche in questo caso siamo in una situazione tale da dire che siamo in CPU bottleneck?

In QHD è possibile che nei giochi più CPU intensive una sorta di collo si verifichi, ma questi casi sono abbastanza rari.

Mentre in 4k la situazione migliora come è ovvio che sia

Ma anche in questo caso ci troviamo di fronte ad un problema?

La risposta è no perchè nel 90% delle situazioni / casi andrà bene, ovviamente non sto dicendo che l'accoppiamento 10700k /4080 sia una scelta "giusta" ma può essere accettabile finchè non si cambia sistema per un periodo di tempo.

Anche qui se ci facciamo 2 domande possiamo dire, si perdono frame rispetto ad una CPU più moderna?

La risposta è SI assolutamente

Esiste un problema di CPU bottleneck

La risposta è generalmente NO
 
Ultima modifica:
ma è quello che sto dicendo da una vita

Che uno voglia avere il sistema più "bilanciato" possibile specie se ha una scheda video potente non ci piove!

Ci sta

Quando dici a @Beex che il suo 5900x "boccheggia" in 4k perchè ha usato il DLSS e la GPU non sta al 100% FAI DISINFORMAZIONE

Quando dici a me in uno screen come dead Island 2 che il 10700k è in CPU bottleneck solo perché in QHD una 4080 non lavora la 100% quando con una scheda nvidia nemmeno con un 7800x3d lo fa

E' DISINFORMAZIONE

in tutti i casi che abbiamo visto vi è un "collo di sistema" spesso dovuto semplicemente ad una poca ottimizzazione software, che viene oltretutto accentuato dall'uso di risoluzioni più basse!

Stiamo cercando di dirlo da 50 pagine!

qui nessuno contesta o a mai contestato il fatto che una scheda potente vada possibilmente accoppiata ad un processore "adeguato" e se COMPRI una 4090 insieme a tutto il sistema chiaramente ahi i soldi e puoi anche spendere per un processore che ti offra le migliori prestazioni possibili ( se vuoi farlo)

Ma avere un 5900x con una 4090 rappresenta un problema ?

La risposta è NO non ci sono problemi

qui il vero problema è che ci sta uno che guarda lo screen di afterburner vede che ne so la percentuale di utilizzo di una GPU invece che al 99% sta al 70 e grida "CPU bottleneck"

Già detta cosi fa ridere e ci stanno utenti che si fanno condizionare e gli danno pure retta!

Prendiamo un caso più estremo come il mio

Un 10700k accoppiato con una 4080, non è una situazione certo ideale, perché consapevolmente in una situazione con un processore migliore si guadagnerebbero moltissimi frame.

Ma anche in questo caso siamo in una situazione tale da dire che siamo in CPU bottleneck?

In QHD è possibile che nei giochi più CPU intensive una sorta di collo si verifichi, ma questi casi sono abbastanza rari.

Mentre in 4k la situazione migliora come è ovvio che sia

Ma anche in questo caso ci troviamo di fronte ad un problema?

La risposta è no perchè nel 90% delle situazioni / casi andrà bene, ovviamente non sto dicendo che l'accoppiamento 10700k /4080 sia una scelta "giusta" ma può essere accettabile finchè non si cambia sistema per un periodo di tempo.

Anche qui se ci facciamo 2 domande possiamo dire, si perdono frame rispetto ad una CPU più moderna?

La risposta è SI assolutamente

Esiste un problema di CPU bottleneck

La risposta è generalmente NO
Crime una curiosità, potresti fare un semplice test su The Last Of Us che è un gioco abbastanza CPU intensive puoi provare a vedere quanti fps fai a nativo e quanti fps incrementi se attivi i vari dlss anche a performance? È un test per vedere se fino a che livello scendendo di risoluzione poi la cpu non sta più dietro. Ovvio potrebbe non accadere mai o potrebbe accadere anche subito con dlss quality ma è un bottleneck relativo avendo già dimostrato che fai comunque degli fps alti! Ti chiedo questo test solo per una pura curiosità eh😉 per conoscere il limite se c’è della cpu, ovviamente non vengo da Krypton e sto cercando di trovare il bottleneck a tutti i costi!🤣
 
Crime una curiosità, potresti fare un semplice test su The Last Of Us che è un gioco abbastanza CPU intensive puoi provare a vedere quanti fps fai a nativo e quanti fps incrementi se attivi i vari dlss anche a performance? È un test per vedere se fino a che livello scendendo di risoluzione poi la cpu non sta più dietro. Ovvio potrebbe non accadere mai o potrebbe accadere anche subito con dlss quality ma è un bottleneck relativo avendo già dimostrato che fai comunque degli fps alti! Ti chiedo questo test solo per una pura curiosità eh😉 per conoscere il limite se c’è della cpu, ovviamente non vengo da Krypton e sto cercando di trovare il bottleneck a tutti i costi!🤣
a che risoluzione
 
Comunque io concordo con @Kal El quando dice che una 4090 è ottima in 1440p e che l'unico problema è che ancora non ci sono CPU in grado di sfruttarla a dovere su quella res. Avessi i soldi la prenderei anche io per giocare in 1440p. Ricordo ancora quando presi la mia 3080Ti per il 1440p e mi venne detto che era sprecata per quella res e che era una scheda da 4K, ora invece è diventata un'ottima scheda da 1440p e che su alcuni giochi già inizia a faticare tirando a bestia tutti i dettagli (A plague tale: requiem, Cyberpunk, RDR2 che senza DLSS mi gira a praticmaente 40FPS con tutti i dettagli maxati ecc..) Per fortuna non ascoltai che mi disse di prendere una 3070Ti o 3080 perchè il mio obbiettivo è quello di prendere un GPU e tenerla per almeno 7 anni (la buona vecchia 980Ti l'ho dismessa quando presi la 3080Ti 2 anni fa).
Tuttavia consiglio anche a @Kal El di lasciare perdere il 5900x se vuole SOLO giocare e prendere il 5800X3D, io lo possiedo ed è vermanete una bestia su AM4. Per non parlare del fatto che se si vule assemblare un buon PC pagando poco, a mio avviso, la combo 5800X3D+GPU RTX5xxx o RX7xxx è la scelta migliore. COn i soldi che risparmi su CPU, MB e RAM ti prendi una GPU migliore che puoi sfruttare
 
Vediamo @CEMT96 , una gpu con 16384 cuda core, un bandwidth di 1.008GB/s, 24GB di vram, 82 Teraflops fp32 e un prezzo di 2K, mi sembra una gpu adatta al 1440p, oserei dire anche un pizzico di 1080p, se si gioca su un monitor 1080p 500hz.

Guarda io mi trattengo più che posso, ma a te e al tuo amico, la rtx 4090 ve la darei in testa.
 
Comunque io concordo con @Kal El quando dice che una 4090 è ottima in 1440p e che l'unico problema è che ancora non ci sono CPU in grado di sfruttarla a dovere su quella res. Avessi i soldi la prenderei anche io per giocare in 1440p. Ricordo ancora quando presi la mia 3080Ti per il 1440p e mi venne detto che era sprecata per quella res e che era una scheda da 4K, ora invece è diventata un'ottima scheda da 1440p e che su alcuni giochi già inizia a faticare tirando a bestia tutti i dettagli (A plague tale: requiem, Cyberpunk, RDR2 che senza DLSS mi gira a praticmaente 40FPS con tutti i dettagli maxati ecc..) Per fortuna non ascoltai che mi disse di prendere una 3070Ti o 3080 perchè il mio obbiettivo è quello di prendere un GPU e tenerla per almeno 7 anni (la buona vecchia 980Ti l'ho dismessa quando presi la 3080Ti 2 anni fa).
Tuttavia consiglio anche a @Kal El di lasciare perdere il 5900x se vuole SOLO giocare e prendere il 5800X3D, io lo possiedo ed è vermanete una bestia su AM4. Per non parlare del fatto che se si vule assemblare un buon PC pagando poco, a mio avviso, la combo 5800X3D+GPU RTX5xxx o RX7xxx è la scelta migliore. COn i soldi che risparmi su CPU, MB e RAM ti prendi una GPU migliore che puoi sfruttare
Giornataccia secondo me.... 😇 😅
 
Pubblicità
Pubblicità
Indietro
Top