Stai usando un browser non aggiornato. Potresti non visualizzare correttamente questo o altri siti web. Dovreste aggiornare o usare un browser alternativo.
detta cosi é giusto dire che la cpu fa da bottleneck. ma é anche vero dire che nessuna cpu al mondo ne ora e forne ne mai riuscirebbe a sfruttare la 4090 in qhd al 100%
Molto semplicemente in alcuni casi il limite è il gioco stesso
E' ovvio che se valuti una gpu del 2023 con un gioco del 2015 (per quanto rinnovato con aggiunta di nuove tecnologie) è facile imbattersi in un "tappo"
Ma spero che nessuno abbia preso una 4000 al solo scopo di rigiocare un titolo di 8 anni fa
Di solito si fa per stare al passo sulle nuove uscite e tutto il vecchio basta che sia godibile (ed un TW3 ad oltre 100 fps lo è di sicuro )
quando la gpu non viene utilizzata al 100 % per motivi che non dipendono dal gioco stesso, é bottleneck. il bottleneck deriva da uno sbilnciamento del sistema che non per forza é la cpu troppo scarsa puo essere anche il monitor, in questo caso specifico, é la risoluziome troppo bassa a limitare quella scheda, la cpu piu di tot non riesce a processare e la vgarimane molto indietro.
nulla di grave per carita, quella gpu é talmente potente in qhd che anche lavorando al 50% ti fa 100 fps, pero il bottlemeck cé non si puo sostenere il contrario
No. In quel caso a causare il “sottoimpiego” della GPU è causato da una scheda video troppo potente, per quel gioco, in relazione alla risoluzione. Se vogliamo indicare un “bottleneck”, questo è causato dalla risoluzione del monitor, non dalla CPU. Qui abbiamo CPU SOTTOIMPIEGATE (meno del 50%) e GPU pure. Quale bottleneck ?
Molto semplicemente in alcuni casi il limite è il gioco stesso
E' ovvio che se valuti una gpu del 2023 con un gioco del 2015 (per quanto rinnovato con aggiunta di nuove tecnologie) è facile imbattersi in un "tappo"
Ma spero che nessuno abbia preso una 4000 al solo scopo di rigiocare un titolo di 8 anni fa
Di solito si fa per stare al passo sulle nuove uscite e tutto il vecchio basta che sia godibile (ed un TW3 ad oltre 100 fps lo è di sicuro )
al di la del gioco. la 4090 in qualsiasi titolo non verrebbe sfruttata al 100% in qhd , é una condizione di cpu limited assoluta al quale é impossibile venirne fuori.
il bottleneck defiinito collo di bottiglia puo essere piu o meno intenso, causera un problema serio solo nei casi piu gravi.
--- i due messaggi sono stati uniti ---
No. In quel caso a causare il “sottoimpiego” della GPU è causato da una scheda video troppo potente, per quel gioco, in relazione alla risoluzione. Se vogliamo indicare un “bottleneck”, questo è causato dalla risoluzione del monitor, non dalla CPU. Qui abbiamo CPU SOTTOIMPIEGATE (meno del 50%) e GPU pure. Quale bottleneck ?
al di la del gioco. la 4090 in qualsiasi titolo non verrebbe sfruttata al 100% in qhd , é una condizione di cpu limited assoluta al quale é impossibile venirne fuori.
il bottleneck defiinito collo di bottiglia puo essere piu o meno intenso, causera un problema serio solo nei casi piu gravi.
Oltretutto se non sbaglio hai anche il vantaggio della ram quad-channel che un bell'aiuto te lo dovrebbe comunque dare. Il tuo sistema è ancora validissimo imho.
si certamente, sto vicino ai 117GB/s come banda, la cpu è deliddata in direct-die, la posso spingere anche a 5000/5100 all-core, daily però alla fine la tengo a 4900..
è tutta la piatta che alla fine è solidissima e se ben "regolata" rende ancora parecchio, pensa che all'epoca si consigliavano i 7700K, cpu che ho avuto (e nemmeno una sola) e che non valeva nulla già in quel momento se non per quattro bench in croce su HWBOT, oggi le puoi usare per non far ballare il tavolino della cucina, insieme ai successivi 8700-9900 ecc... :asd:
il mio ha retto anni senza mai rappresentare un limite, nemmeno con la 4090 alla fine, alla mia risoluzione...
mo vediamo sta nuova piattaforma di fascia alta, io sarei indirizzato verso uno Xeon W7-2495X, un bel 24c/48t senza zozzerie di E-Core tra i piedi... :D
Ma anche qualora ci dovesse essere effettivamente un non ottimale sfruttamento della scheda a causa della CPU, se parliamo di fare 150 fps anzichè 170 senza alcuno stuttering è un bottleneck completamente trascurabile se non ci si impunta nel guardare il numero di fps. Bottleneck non è obbligatoriamente un problema non trascurabile, lo diventa in due casi: c'è stuttering, la differenza di fps decreta il framerate ottimale, davanti a sberle di cento e rotti fps (in RT) è semplicemente una problematica trascurabile. Magari farà la differenza quando suddette schede saranno vecchiotte, dove una ventina di fps faranno una differenza abissale, ma tra 140 e 160, a meno di non impuntarsi a volere il massimo degli fps possibili, è una problematica che non fa alcuna differenza nella qualità dell'esperienza.
attenzione che che non esiste solo il bottleneck cpu, basta una qualsiasi componente ad essere sbilanciata per crearsi un collo, CPU, GPU, RAM, SSD, MONITOR.
Ma anche qualora ci dovesse essere effettivamente un non ottimale sfruttamento della scheda a causa della CPU, se parliamo di fare 150 fps anzichè 170 senza alcuno stuttering è un bottleneck completamente trascurabile se non ci si impunta nel guardare il numero di fps. Bottleneck non è obbligatoriamente un problema non trascurabile, lo diventa in due casi: c'è stuttering, la differenza di fps decreta il framerate ottimale, davanti a sberle di cento e rotti fps è semplicemente una problematica trascurabile. Magari farà la differenza quando suddette schede saranno vecchiotte, dove una ventina di fps faranno una differenza abissale, ma tra 140 e 160, a meno di non impuntarsi a volere il massimo degli fps possibili, è una problematica che non fa alcuna differenza nella qualità dell'esperienza.
si esattamente, finche il gioco rimane fluido tutto é trascurabile e consiglio vivamente di chiudere tutti i programmini e godersi il game
--- i due messaggi sono stati uniti ---
infatti lo sostengo anche io e l`ho sempre sostenuto, se vogliamo essee precisi anche la 4080 ma per lo meno anche se esagerata puo avere ancora un senso
si esattamente, finche il gioco rimane fluido tutto é trascurabile e consiglio vivamente di chiudere tutti i programmini e godersi il game
--- i due messaggi sono stati uniti ---
infatti lo sostengo anche io e l`ho sempre sostenuto, se vogliamo essee precisi anche la 4080 ma per lo meno anche se esagerata puo avere ancora un senso
In senso generale il collo di bottiglia in un sistema è rappresentato dal processo più lento di una serie, che quindi finisce col dettare il passo agli altri (più veloci).
Poi voi lo usate per dire solo quando è grave... Vabbè allora quando non è grave chiamiamolo "fattore limitante".
La domanda che aveva fatto @Lorenzo Lanas resta:
Perché nessun core è al 100% se è la cpu il fattore limitante ?
Lasciate perdere che gli fps sono già buoni, io sarei curioso di sapere quale è il fattore limitante. È qualcosa legato alla cpu (cambiando la aumentano gli fps) ma non legato alle % di utilizzo dei cores... Forse la banda ram? Forse la pcie 4.0?
Il fattore limitante in quel caso è l’engine del gioco. A quella risoluzione non può fare di più pur avendo ancora risorse disponibili su CPU e su GPU. Non tutti gli engine sono disegnati per sfornare semplicemente il maggior numero possibile di FPS (alla Rainbow Six per capirci).
No @Max(IT) mi dispiace, ma questa volta ha ragione @Kal El
Forse questo è l'evento che @Avets stava aspettando da decenni ma abbiamo scoperto che anche tu non sei infallibile ma "umano" come tutti noi
Se osserviamo il 1° screenshot che "il sommo" ha postato, scopriamo che la GPU è carica al massimo mentre la CPU è al ~56% con risultato finale di 156 FPS.
. Questo perchè la QUANTITA' di calcoli che il processore deve fare in ogni singolo frame rimane invariato (es, meccaniche di gioco, intelligenza artificiale, movimento foglie, ecc ecc) ma è la velocità (cioè il clock, i gigahertz) che non riesce a stargli dietro. In questo caso aggiungere ulteriori core al processore potrebbe non servire ad una beata fava se il videogioco non è stato programmato e pensato per sfruttare al meglio il più core possibili (operazione tutt'altro che semplice, se non impossibile, da realizzare).
L'esempio portato dal nostro super-UOMO in effetti è calzante! Se lui passa dall'i9 all'i5, di pari gigahertz, avrebbe un carico della CPU che passa dal 50% al 70% (ad esempio) ma poi gli FPS finali del gioco non cambierebbero perchè è la VELOCITA' (per core) che non riesce a stargli dietro.
Come ci dice @crimescene adesso l'ultimo test che @Kal El "il sommo" dovrebbe fare è testare il gioco in 1080p nativi (ovviamente sarebbe scandaloso a livello grafico a causa del monitor 1440p ma è solo per benchmarkare)! Se lui prova il gioco in 1080p nativi, il framerate dovrebbe tornare ad essere ~150 FPS anzi forse qualcosina in più però il carico sul processore dovrebbe rimanere invariato (o aumentare proporzionalmente in base a quanto aumenta l'fps).
DETTO QUESTO
Chiaramente rimane il fatto che la 4090 è una scheda video che è un mostro di potenza, o giochi a Hogwarts Legacy o Cyberpunk 2077 @ 1440p con ray-tracing psyco-hyper-mega loco level attivo oppure per tutti gli altri giochi "leggeri" passi al 4K ... e penso che su questo non ci piove!!!
PS - Scusate non ho citato anche la memoria di sistema: in effetti anche quella concorre alla velocità generale del framerate, anche solo passare da DDR4 a DDR5 estremamente veloci potrebbe aiutare