UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Lo vede in cartolina un 13900k ;)
Si aspettano tre mesi per la presentazione dei nuovi Intel, dopodiché si vola con il 3d e la 4090, per dominare il 1440p ad alto refresh con RT <3

Questo sarò io, quando cambierò quel piantone del 5900x con un 7800X3D, o altra soluzione Intel:
Oh, poi alla fine ognuno spende i suoi soldi come vuole...
Ma tu nel 1982 c'eri?
 
Passare da un 5900x ad un 5800X3D sarebbe un downgrade, ha poco senso, soprattutto quando hai il 5900x in O.C.
La scelta più saggia è quella di dare alla 4090, una cpu meritevole ;)
Ho avuto per 2 anni un 5950X usato in daily con un overclock abbastanza spinto (PBO+CO e medie Cinebench R23 sui 30/30500 punti) ed ora ho un 5800X3D preso a costo 0: tra il 5950X a default e tirato abbestia cambia lo zero virgola ungazzo negli fps in gaming. Dopo lo switch con la nuova CPU invece il miglioramento in gaming si è sentito (ho usato 2 risoluzioni con questi proci e la 4090: 1440p e 4K) soprattutto nel frametime più lineare e nei minimi più alti. Poi c'è anche da dire che comunque col 5950X (e con tutti i Ryzen 5000X) si gioca benissimo a parte qualche titolo particolare dove il procio può andare in sofferenza (a qualsiasi risoluzione).

Lo vede in cartolina un 13900k ;)
La differenza in gaming tra il 13900K ed il 5800X3D è praticamente nulla. Parliamo di una forbice che va dall'1 al 4% nelle risoluzioni di riferimento per cui è adatta la GPU (4K e 1440p). La 4090 in 4K col 5800X3D sta praticamente sempre in full load e riesce a dare quasi sempre almeno i 116fps (tramite anche DLSS e/o il frame generation) che corrispondono al framecap che ho impostato sul mio sistema.
Per riassumere giocare con uno dei 2 processori di cui sopra imho risulta nella stessa identica esperienza d'uso quindi sta all'utente finale scegliere su cosa orientarsi....magari perché si sta assemblando un sistema nuovo.

Qui comunque il noto maxi elenco dei giochi testati con le rispettive differenze:
 
Lo vede in cartolina un 13900k ;)
Si aspettano tre mesi per la presentazione dei nuovi Intel, dopodiché si vola con il 3d e la 4090, per dominare il 1440p ad alto refresh con RT <3

Questo sarò io, quando cambierò quel piantone del 5900x con un 7800X3D, o altra soluzione Intel:
Non è assolutamente vero il 5800X3D in molti giochi va anche più sia degli Intel che degli AMD 7000 non X3D. In questo preciso momento io consiglierei il 5800X3D per chi ha già una piattaforma AM4 avendo una cpu praticamente top con poca spesa massima resa ed il 7800X3D per chi vuole il top di gamma attualmente in gaming. Ora come ora sono gli Intel a non avere praticamente senso se non nella fascia medio/bassa.
 
Per il nostro amico @Kal El ecco un esempio secondo me di vero CPU bottleneck guarda il video e dimmi cosa pensi rispetto ai nostri test invece, quali sono le differenze che noti.
 
Non è assolutamente vero il 5800X3D in molti giochi va anche più sia degli Intel che degli AMD 7000 non X3D. In questo preciso momento io consiglierei il 5800X3D per chi ha già una piattaforma AM4 avendo una cpu praticamente top con poca spesa massima resa ed il 7800X3D per chi vuole il top di gamma attualmente in gaming. Ora come ora sono gli Intel a non avere praticamente senso se non nella fascia medio/bassa.
Viene completamente asfaltato dalle nuove piattaforme, ddr5+nuove cpu, sono di un altro livello, sempre che sia in accoppiata con una 4090, altrimenti non la noteresti questa differenza…
 
Ultima modifica:
Viene completamente asfaltato dalle nuove piattaforme, ddr5+nuove cpu, sono di un altro livello, sempre che sia in accoppiata con una 4090, altrimenti non la noteresti questa differenza…
Ma nei video che posti non noti che usa impostazioni e risoluzioni scelte ad hoc per mettere in risalto il divario delle CPU (1080p/1440p - no RT- no DLSS - no FG) ma che in realtà nessuno le usa con una 4090? Fino a 3 mesi fa avevo un monitor 1440p@144hz con la 4090 + 5950X/5800X3D e in QUALSIASI gioco recente e non il frame era sempre sparato ai 144fps salvo un paio di casi particolari col 5950X e se vuoi te li cito pure.
 
Che poi la scelta più saggia che potrebbe fare il nostro amico venuto da Krypton sarebbe quello di piazzare il 5900X a chi serve una cpu per produttività ed a pari prezzo si spera prendere un 5800X3D.
Si, questo avrebbe senso, e garantirebbe in alcune occasioni un vantaggio , specie a causa dell’assurda scelta dei 1440P.

Ma sappiamo bene che questo non garantirebbe la sua gratificazione personale, ottenibile solo con the latest and greatest

Oh, poi alla fine ognuno spende i suoi soldi come vuole...
Ma tu nel 1982 c'eri?
Chiaramente no… piuttosto evidente che sia un ragazzino pieno di soldi
 
Ho avuto per 2 anni un 5950X usato in daily con un overclock abbastanza spinto (PBO+CO e medie Cinebench R23 sui 30/30500 punti) ed ora ho un 5800X3D preso a costo 0: tra il 5950X a default e tirato abbestia cambia lo zero virgola ungazzo negli fps in gaming. Dopo lo switch con la nuova CPU invece il miglioramento in gaming si è sentito (ho usato 2 risoluzioni con questi proci e la 4090: 1440p e 4K) soprattutto nel frametime più lineare e nei minimi più alti. Poi c'è anche da dire che comunque col 5950X (e con tutti i Ryzen 5000X) si gioca benissimo a parte qualche titolo particolare dove il procio può andare in sofferenza (a qualsiasi risoluzione).


La differenza in gaming tra il 13900K ed il 5800X3D è praticamente nulla. Parliamo di una forbice che va dall'1 al 4% nelle risoluzioni di riferimento per cui è adatta la GPU (4K e 1440p). La 4090 in 4K col 5800X3D sta praticamente sempre in full load e riesce a dare quasi sempre almeno i 116fps (tramite anche DLSS e/o il frame generation) che corrispondono al framecap che ho impostato sul mio sistema.
Per riassumere giocare con uno dei 2 processori di cui sopra imho risulta nella stessa identica esperienza d'uso quindi sta all'utente finale scegliere su cosa orientarsi....magari perché si sta assemblando un sistema nuovo.

Qui comunque il noto maxi elenco dei giochi testati con le rispettive differenze:
Tu cerchi di fare discorsi sensati con uno che il frametime non sa neppure cosa sia.
Per lui contano due cose: il numero di FPS ed il numerello di percentuale utilizzo GPU…

Hai scritto un ottima cosa qui sopra: la 4090 con il 5800X3D in 4K va benissimo.
Ed hai scritto un altra ottima cosa: raggiungi sempre i 116 FPS che hai cappato sul tuo sistema (immagino monitor da 120 Hz).

Il problema è questi concetti all’uomo venuto da Krypton sfuggono totalmente…
immagino che lui non sappia neppure il motivo per cui hai cappato sotto i 120 FPS 🤦🏻‍♂️
 
Viene completamente asfaltato dalle nuove piattaforme, ddr5+nuove cpu, sono di un altro livello, sempre che sia in accoppiata con una 4090, altrimenti non la noteresti questa differenza…
Ma poi stavo riguardando con più attenzione il video che hai postato qui sopra e sono andato a ricercarmi due dati ad esempio su Fortnite a 1440p con la 4090 e 5800X3D. Spulciando in rete, con sistemi simili, viene fuori:

1) settaggi a cannone con RT: 70-90 fps spannometricamente e GPU sempre intorno al 95% ergo non c'è spazio per migliorare la situazione causa limite della GPU.


2) settaggi epici no RT con "solo" una 4080: 170-200fps. E' leggermente CPU limited quindi con la 4090 faresti gli stessi fps ma comunque si è prestazionalmente oltre gli hz del 99.9% dei monitor in vendita (ps. ho avuto l'anno scorso un monitor 240hz VA Samsung quindi ti posso certificare senza paura di essere smentito che non ti porta benefici tangibili fare 180 o 230fps);


3) settaggi low per competitivo con 4080 come sopra: 450-550fps. Facciamo un sondaggio quanti hanno monitor da oltre 500hz per apprezzare il guadagno derivante da un aggiornamento piattaforma.


E per tutti gli altri giochi a qualsiasi risoluzione più o meno la situazione è la stessa. C'è solo un ristretto numero di situazioni dove i Ryzen vecchia serie lisci possono dare problemi per il resto aggiornare da un AM4 X3D ad un AM5 o ad un LGA1700 in gaming non mi porta nessun beneficio (ed in MFS2020 addirittura peggioro...pure col 13900K...garantito).
--- i due messaggi sono stati uniti ---
Ed hai scritto un altra ottima cosa: raggiungi sempre i 116 FPS che hai cappato sul tuo sistema (immagino monitor da 120 Hz).

Il problema è questi concetti all’uomo venuto da Krypton sfuggono totalmente…
immagino che lui non sappia neppure il motivo per cui hai cappato sotto i 120 FPS 🤦🏻‍♂️
Si, uso una TV LG C2 da 42" come monitor su HDMI 2.1 con frame cappato a 116 su 119,9 e rotti. Oltretutto in 4K, con qualsiasi cavo Displayport 1.4a che è quello della 4090, sopra i 120hz bisogna abbassare la profondità colore da 10 a 8 bit + frc perché non basta la banda e in certe situazioni di uso fotografico la differenza si nota quindi per il mio uso è un NO GRAZIE.
 
Ultima modifica:
Esatto. Tu stai usando bottleneck nel senso letterale , lui invece lo sta indicando come UN PROBLEMA, e questo non mi piace. Già siamo su un thread dove si passa la 4090 con una GPU gaming, per di più da QHD, se poi arriviamo a far credere che un ottimo 5900X vada cambiato ci mettiamo a fare il gioco del “nemico”.
Sul 3700X chiaramente sin dal principio il discorso era più complesso, perché io stesso avevo dei dubbi. Ma il buon @Beex ci ha mostrato screenshot dove problemi non ne vedo.
Chiaro che potrebbe fare più FPS con una nuova CPU, a seconda del gioco, ma ne vale la pena ? Per me no.
Intanto il limite è il monitor (se hai un monitor da 165 Hz, fare 200 FPS serve solo a gonfiare il tuo ego), in secondo luogo il limite è l’occhio umano (passare da 250 a 300 FPS non cambia una beata fava, se non su Krypton), quindi NO, continua a non aver senso. Certo se stai facendo un PC nuovo da zero e ti avanzano i soldi (altrimenti la 4090 non la prendevi proprio) allora di sicuro ci metti una CPU moderna. Ma se il PC lo possiedi già, perché cambiare ?

E qui comunque stiamo dimenticando il dicorso iniziale: se la 4090 fosse usata alla sua risoluzione corretta, questi “50 FPS” di differenza non ci sarebbero.
Mi sono preso del tempo per leggere le pagine passate ma in effetti la materia è molto complessa e si può facilmente creare confusione.

Spesso si usa genericamente il termine bottleneck (collo di bottiglia), però ce ne sono tante versioni:
  • CPU bottleneck = quando il processore non riesce a seguire il passo della GPU che finisce per rallentarla
  • Hardware bottleneck = quando un componente hardware è lento o ha un problema e finisce per rallentare la GPU
  • Software bottleneck = quando un software, applicazione o gioco o driver stesso, non è ottimizzato o è realizzato male (es. crea shaders errati) e rallenta la GPU (direttamente o indirettamente)
  • System-level bottleneck = quando qualcosa di generico a livello di sistema, rallentano la GPU
In questo post alcuni si riferiscono a bottleneck solo nello specifico caso del CPU bottleneck, mentre altri lo intendono nel significato più ampio come Hardware bottleneck. In via generale se la CPU non è al 100% del carico non è detto che non stia generando (CPU) bottleneck, quindi sbagliate voi in questo caso, così come se un software è ottimizzato/realizzato male e si genera Software bottleneck, non è detto che cambiando CPU (o tutto l'hardware) il problema possa essere risolto (es. se i prolemi sono i driver), quindi in questo caso sbaglia @Kal El . Per voi però molto spesso bottleneck è automaticamente sinimo di CPU bottleneck. Ma ripeto: la materia è comunque estremamente complessa, forse al di là delle competenze degli ingegneri di NVIDIA/AMD/Intel stessi!!!

Il senso del discorso di questo post, fondamentalmente, diventa però una pura opinione personale, e sono queste 2 visioni:
  1. Mi compro una 4090 per avere il massimo della qualità grafica a 4K fregandomene degli FPS.
  2. Mi compro una 4090 per avere il massimo degli FPS a 1440p con il massimo dei dettagli.
Questo era il nocciolo dello scontro. Con un 5800X non faccio CPU BOTTLENECK con una 4090, infatti il processore è perfettamente in grado di sostenere la mia GPU. Però quando sei un purista degli FPS, a quel punto vuoi necessariamente un 7800X3D. Ed è a quel punto che nasce la discussione: molti di noi non la vedono in questo modo, me compreso, alcuni altri invece se ne fregano.

In via generale, comunque, se il motore 3D non è cappato internamente, se non c'è il vertical sync attivo e se il gioco è sufficientemente ben realizzato (intendo anche a livello di quantità di grafica che deve spostare), quando la GPU scende al di sotto del 90% di utlizzo possiamo affermare che c'è System-level bottleneck.

Poi sta a noi indagare cos'è (e magari alla fine sono SOLO i driver)...

Se possiamo fare un paragone nelle automobili, qui abbiamo 2 visioni: chi vuole spendere molti soldi per una macchina comoda e spaziosa e chi invece vuole il massimo della velocità e delle prestazioni ... anche se magari ha i sedili in legno e non ha portapacchi.
 
Questo era il nocciolo dello scontro. Con un 5800X non faccio CPU BOTTLENECK con una 4090, infatti il processore è perfettamente in grado di sostenere la mia GPU. Però quando sei un purista degli FPS, a quel punto vuoi necessariamente un 7800X3D. Ed è a quel punto che nasce la discussione: molti di noi non la vedono in questo modo, me compreso, alcuni altri invece se ne fregano.
Giusto e legittimo.
L'importante è non spacciarla come verità assoluta e dire che se non prendi una 4090 + 7800X3D allora non puoi proprio giocare.
 
Si, questo avrebbe senso, e garantirebbe in alcune occasioni un vantaggio , specie a causa dell’assurda scelta dei 1440P.

Ma sappiamo bene che questo non garantirebbe la sua gratificazione personale, ottenibile solo con the latest and greatest


Chiaramente no… piuttosto evidente che sia un ragazzino pieno di soldi
Esatto, che poi nessuno qui sta criticando la sua scelta personale di fare un cambio eh ma semplicemente non far passare il messaggio sbagliato di un cambio necessario. Io stesso ho cambiato il 5900X, ma dare stupido a dire che l’ho cambiato per bottleneck, ma solo per la mia enorme passione nel provare sempre hardware nuovo. E nonostante questa mia passione se non avessi piazzato bene la vecchia piattaforma comunque non ci avrei speso il costo della piattaforma integralmente.
--- i due messaggi sono stati uniti ---
Mi sono preso del tempo per leggere le pagine passate ma in effetti la materia è molto complessa e si può facilmente creare confusione.

Spesso si usa genericamente il termine bottleneck (collo di bottiglia), però ce ne sono tante versioni:
  • CPU bottleneck = quando il processore non riesce a seguire il passo della GPU che finisce per rallentarla
  • Hardware bottleneck = quando un componente hardware è lento o ha un problema e finisce per rallentare la GPU
  • Software bottleneck = quando un software, applicazione o gioco o driver stesso, non è ottimizzato o è realizzato male (es. crea shaders errati) e rallenta la GPU (direttamente o indirettamente)
  • System-level bottleneck = quando qualcosa di generico a livello di sistema, rallentano la GPU
In questo post alcuni si riferiscono a bottleneck solo nello specifico caso del CPU bottleneck, mentre altri lo intendono nel significato più ampio come Hardware bottleneck. In via generale se la CPU non è al 100% del carico non è detto che non stia generando (CPU) bottleneck, quindi sbagliate voi in questo caso, così come se un software è ottimizzato/realizzato male e si genera Software bottleneck, non è detto che cambiando CPU (o tutto l'hardware) il problema possa essere risolto (es. se i prolemi sono i driver), quindi in questo caso sbaglia @Kal El . Per voi però molto spesso bottleneck è automaticamente sinimo di CPU bottleneck. Ma ripeto: la materia è comunque estremamente complessa, forse al di là delle competenze degli ingegneri di NVIDIA/AMD/Intel stessi!!!

Il senso del discorso di questo post, fondamentalmente, diventa però una pura opinione personale, e sono queste 2 visioni:
  1. Mi compro una 4090 per avere il massimo della qualità grafica a 4K fregandomene degli FPS.
  2. Mi compro una 4090 per avere il massimo degli FPS a 1440p con il massimo dei dettagli.
Questo era il nocciolo dello scontro. Con un 5800X non faccio CPU BOTTLENECK con una 4090, infatti il processore è perfettamente in grado di sostenere la mia GPU. Però quando sei un purista degli FPS, a quel punto vuoi necessariamente un 7800X3D. Ed è a quel punto che nasce la discussione: molti di noi non la vedono in questo modo, me compreso, alcuni altri invece se ne fregano.

In via generale, comunque, se il motore 3D non è cappato internamente, se non c'è il vertical sync attivo e se il gioco è sufficientemente ben realizzato (intendo anche a livello di quantità di grafica che deve spostare), quando la GPU scende al di sotto del 90% di utlizzo possiamo affermare che c'è System-level bottleneck.

Poi sta a noi indagare cos'è (e magari alla fine sono SOLO i driver)...

Se possiamo fare un paragone nelle automobili, qui abbiamo 2 visioni: chi vuole spendere molti soldi per una macchina comoda e spaziosa e chi invece vuole il massimo della velocità e delle prestazioni ... anche se magari ha i sedili in legno e non ha portapacchi.
Secondo me l’esempio più realistico di bottleneck lo trovi nel video che ho linkato qualche post fa, Ryzen 4500 e AMD 6600 in full hd su The Last Of Us, fa vedere che fa 60fps con utilizzo cpu sopra 80% attiva fsr per fare qualche fps in più e niente gli fps restano gli stessi anche renderizzando a 360p!😅 cambiando cpu con un 5600 invece si evince che utilizzando fsr si passa dai 60fps del nativo fino ad 80fps con fsr. Ecco questo è il bottleneck. Passare da 130/140fps a 150/160 fps perché si è preso una cpu nuova per me è solo il margine di guadagno dato da una nuova cpu rispetto alla “vecchia”.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top