UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Ma come fa la risoluzione a rallentare la cpu??
Quella cpu è rallentata da qualcosa!

Ho capito che in 8k il fattore limitante diverrebbe la gpu, grazie, ma siamo in 1440p e la cpu non sta dietro alla gpu, ma i suoi cores non sono neanche al 70%.
Questo è strano. 🤔🤔🤔

Poi ho capito che il sistema è sbilanciato per quella res, ma non significa che la cpu non stia limitando (in maniera non grave) il sistema.

Che fatica, bisogna mettere tutti i puntini sue i con voi 😁

Il mio è un quesito tecnico, non un prpema di prestazioni
Perché un videogioco ed il PC su cui gira non sono sistemi perfetti che usano calcoli pronti e lineari per generare la prestazione. Durante una partita la scheda video viene alimentata da informazioni che devono essere messe in un ordine utile e che si possono trovare al momento del bisogno o nella cache del processore o nella ram o nell'SSD. Questi supporti hanno ovviamente pure latenze diverse e, per far si che tutta questa mole di informazioni arrivi alla GPU in maniera coerente, il sistema perde cicli di calcolo in cui materialmente il processore non può fare altro che "aspettare" che si liberi la risorsa necessaria. Per questo anche in caso di bottleneck tante volte difficilmente vedi al CPU piombata al 100%
 
allora prova regina

Un 7950x vi sembra "adeguato?"

Ecco su una 4090 il gioco inizia a sfruttare un poco la scheda solo in 4k


 
Ma come fa la risoluzione a rallentare la cpu??
Quella cpu è rallentata da qualcosa!

Ho capito che in 8k il fattore limitante diverrebbe la gpu, grazie, ma siamo in 1440p e la cpu non sta dietro alla gpu, ma i suoi cores non sono neanche al 70%.
Questo è strano. 🤔🤔🤔

Poi ho capito che il sistema è sbilanciato per quella res, ma non significa che la cpu non stia limitando (in maniera non grave) il sistema.

Che fatica, bisogna mettere tutti i puntini sue i con voi 😁

Il mio è un quesito tecnico, non un prpema di prestazioni
non rallenta nulla nel primo screen ha il frame generator attivo
 
Fatevi un giro in questa scena se avete "A Plague Tale Requiem" per vedere se la vostra CPU fa da bottleneck. Io a suo tempo lo feci ed in 4K posso confermare che pure i Ryzen 7000X normali fanno da bottleneck tanto che DLSS ON o OFF non cambia nulla ovviamente.

 
Fatevi un giro in questa scena se avete "A Plague Tale Requiem" per vedere se la vostra CPU fa da bottleneck. Io a suo tempo lo feci ed in 4K posso confermare che pure i Ryzen 7000X normali fanno da bottleneck tanto che DLSS ON o OFF non cambia nulla ovviamente.

con molta probabilita in questo caso puo essere un problema del gioco stesso, che sfrutta la cpu in modo troppo intensivo. in 4k nessuna cpu odierna di fascia alta puo fare da colo
 
no lorenzo il primo screen è fatto con il frame generator
Non ricordo ora al volo non ritrovo il post ma forse è come dici

Ma in ogni caso il punto della questione rimane. Non si può pensare di usare una 4090/5090/6090 per renderizzare a 720p al fine di raggiungere un framerate di 500 FPS: semplicemente il processore, nessun processore al mondo, neanche quelli del futuro o quelli del presente overcloccati e dissipati ad azoto liquido, sarebbero in grado di reggerli!!! Semplicemente il processore fa, e farà sempre da bottleneck rispetto alla GPU. Anche arrivando a memorie DDR9 non credo si potrà mai raggiungere un FPS del genere.

Questo perchè la GPU è un processore altamente specializzato che riesce a parallelizzare l'inverosimile, mentre la CPU è un chip general purpose che non riuscirà mai a raggiungere tale livello di parallelizzazione, anche mettendo mille-mila core

A meno che in futuro non riescono a superare la soglia fisica dei ~5 GHz di clock, oltre il silicio chiaramente, allora le cose cambieranno...
 
Perché nessun core è al 100% se è la cpu il fattore limitante ?
Può semplicemente essere il motore di gioco a non scalare bene sulle risorse presenti e quindi si può dire che è "l'ipc" a dettare il limite

E visto che l'ipc è dipendente da vari fattori qualunque di questi migliori può far scalare leggermente le prestazioni (ad esempio aumentando la banda ram, oppure migliorando la cache o salendo un po' sulle frequenze)
E' il motivo per cui nei bench vedi alcuni punti percentuali tra una cpu e l'altra simile (soprattutto le intel che fraziona molto l'offerta)

Quando le schede video raggiungono prestazioni stratosferiche come in questo caso, diventa estremamente facile creare uno scaling tra cpu diverse, ma questo non significa che venga compromessa l'esperienza di gioco (ed è questo importante)
Tant'è che oggi sono moltissime le cpu ancora valide per giocare senza creare problemi all'utente finale (ovvio se assembli ora vai sulle nuove uscite, ma anche soluzioni datate di alcuni anni reggono ancora bene)

Dall'altro lato però capisco anche chi, dopo aver speso migliaia di euro per la scheda video, la vorrebbe vedere sempre sfruttata al massimo (alla fine è il componente più costoso della build di solito), almeno sui titoli recenti (se passi a titoli un po' datati diventa normale non sfruttare le risorse perché sono i titoli stessi a non richiederne 😅)

Sono solo due visioni diverse (incompatibili) in cui da un lato si guarda alla giocabilità, dall'altro si vorrebbe invece sfruttare al massimo per il prezzo pagato
La passione in fondo è anche quest'ultimo aspetto, anche perché se l'obbiettivo è solo godersi i videogiochi ce ne sono tante di soluzioni altrettanto valide a delle schede di fascia alta, chiaramente con compromessi del caso più o meno accettabili a seconda della persona
Per dire, il classico utente che alla sera vuole solo distrarsi un po' vive benissimo con una console (ovviamente non avrà ne' le prestazioni, ne' la qualità ottenibile con queste schede, ma lui raggiunge come il suo scopo: divertirsi)
Altri avranno esigenze diverse e faranno scelte diverse
 
Dall'altro lato però capisco anche chi, dopo aver speso migliaia di euro per la scheda video, la vorrebbe vedere sempre sfruttata al massimo (alla fine è il componente più costoso della build di solito), almeno sui titoli recenti (se passi a titoli un po' datati diventa normale non sfruttare le risorse perché sono i titoli stessi a non richiederne 😅)

questoè impossibile se fai dei paragoni con giochi vecchi eh anche con tutto al massimo

Thee wuitcher 3 in fondo è un giooco vecchisismo riadattato in dx 12 aggiunto l'RT

Spiderman remaste ed un gioco nato su console e un porting

Come ho detto il discorso si deve fare molto piùi complesso

Alcuni giochi =riescono a sfruttare la scheda la 100% altri no, poi se ci metti pure che tieni als schieda ad una risoluzione di molto inferiore a quella cui è destinata .....
 
Si. Procio a default, ram a 3600@cl14. Cyberpunk non beneficia della 3D cache. Basta fare un confronto tra il 5800X ed il mio X3D:

Intel in definitiva rende meglio in CP2077. Bisogna andare di AM5 per recuperare (se proprio uno volesse). Quindi per proprietà transitiva anche i relativamente "vecchi" Intel vanno abbastanza bene.

Ci sta il discorso, come mi arriva l'altra 4090 magari faccio qualche prova con il 7950, di smontare questa manco ci penso! al limite posso provare le 4070/4080 :D

Ti posso dire in ogni caso, visto che avevo già fatto decine di test, che l'XE cloccato a puntino, in 4K che è la mia risoluzione (con e senza dlss) stava sopra in media, rispetto sia al 13900 che al 7950, e in alcuni casi nemmeno di pochissimo..

non a caso avevo rimandato l'upgrade di piattaforma, sto valutando w790 e xeon w al momento :)
 
questoè impossibile se fai dei paragoni con giochi vecchi eh
Sisì, è ovvio e l'ho scritto che sui titoli datati diventa inutile il discorso perché sono proprio i giochi stessi a non riuscire a sfruttare l'hw
Prende senso solo sulle nuove uscite

Voglio dire, se mi metto a giocare al primo witcher senza frame cap faccio fps a gogo (inutilmente), ma non sfrutto lo stesso la scheda video perché era pensato per girare su tutt'altro 😂
 
Ci sta il discorso, come mi arriva l'altra 4090 magari faccio qualche prova con il 7950, di smontare questa manco ci penso! al limite posso provare le 4070/4080 :D

Ti posso dire in ogni caso, visto che avevo già fatto decine di test, che l'XE cloccato a puntino, in 4K che è la mia risoluzione (con e senza dlss) stava sopra in media, rispetto sia al 13900 che al 7950, e in alcuni casi nemmeno di pochissimo..

non a caso avevo rimandato l'upgrade di piattaforma, sto valutando w790 e xeon w al momento :)
Oltretutto se non sbaglio hai anche il vantaggio della ram quad-channel che un bell'aiuto te lo dovrebbe comunque dare. Il tuo sistema è ancora validissimo imho.
 
ma questi stanno a dire che il processore fa bottleneck perchè su the witcher 3 complete in dlss e in QHD una 4090 non va al massimo

ma davero davero

non cij andrà mai al massimo manco con un 20600k
 
ma questi stanno a dire che il processore fa bottleneck perchè su the witcher 3 complete in dlss e in QHD una 4090 non va al massimo

ma davero davero

non cij andrà mai al massimo manco con un 20600k
detta cosi é giusto dire che la cpu fa da bottleneck. ma é anche vero dire che nessuna cpu al mondo ne ora e forne ne mai riuscirebbe a sfruttare la 4090 in qhd al 100%
 
detta cosi é giusto dire che la cpu fa da bottleneck. ma é anche vero dire che nessuna cpu al mondo ne ora e forne ne mai riuscirebbe a sfruttare la 4090 in qhd al 100%
Molto semplicemente in alcuni casi il limite è il gioco stesso
E' ovvio che se valuti una gpu del 2023 con un gioco del 2015 (per quanto rinnovato con aggiunta di nuove tecnologie) è facile imbattersi in un "tappo"

Ma spero che nessuno abbia preso una 4000 al solo scopo di rigiocare un titolo di 8 anni fa
Di solito si fa per stare al passo sulle nuove uscite e tutto il vecchio basta che sia godibile (ed un TW3 ad oltre 100 fps lo è di sicuro 😉)
 
Pubblicità
Pubblicità
Indietro
Top