UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
detta cosi é giusto dire che la cpu fa da bottleneck. ma é anche vero dire che nessuna cpu al mondo ne ora e forne ne mai riuscirebbe a sfruttare la 4090 in qhd al 100%

allora come dice @Max(IT) il "bottleneck" deve essere un problema

cioè rovuinarti l'esperienza di gioco ossia nell'incidenza del frametime

Se il frametime è piatto non ci sta nessun problema a fare in un gioco 160 fps piuttosto che 200 non cambia nulla
 
Molto semplicemente in alcuni casi il limite è il gioco stesso
E' ovvio che se valuti una gpu del 2023 con un gioco del 2015 (per quanto rinnovato con aggiunta di nuove tecnologie) è facile imbattersi in un "tappo"

Ma spero che nessuno abbia preso una 4000 al solo scopo di rigiocare un titolo di 8 anni fa
Di solito si fa per stare al passo sulle nuove uscite e tutto il vecchio basta che sia godibile (ed un TW3 ad oltre 100 fps lo è di sicuro 😉)
bravo
 
quando la gpu non viene utilizzata al 100 % per motivi che non dipendono dal gioco stesso, é bottleneck. il bottleneck deriva da uno sbilnciamento del sistema che non per forza é la cpu troppo scarsa puo essere anche il monitor, in questo caso specifico, é la risoluziome troppo bassa a limitare quella scheda, la cpu piu di tot non riesce a processare e la vgarimane molto indietro.
nulla di grave per carita, quella gpu é talmente potente in qhd che anche lavorando al 50% ti fa 100 fps, pero il bottlemeck cé non si puo sostenere il contrario
No. In quel caso a causare il “sottoimpiego” della GPU è causato da una scheda video troppo potente, per quel gioco, in relazione alla risoluzione. Se vogliamo indicare un “bottleneck”, questo è causato dalla risoluzione del monitor, non dalla CPU. Qui abbiamo CPU SOTTOIMPIEGATE (meno del 50%) e GPU pure. Quale bottleneck ? 🤦🏻‍♂️
 
Molto semplicemente in alcuni casi il limite è il gioco stesso
E' ovvio che se valuti una gpu del 2023 con un gioco del 2015 (per quanto rinnovato con aggiunta di nuove tecnologie) è facile imbattersi in un "tappo"

Ma spero che nessuno abbia preso una 4000 al solo scopo di rigiocare un titolo di 8 anni fa
Di solito si fa per stare al passo sulle nuove uscite e tutto il vecchio basta che sia godibile (ed un TW3 ad oltre 100 fps lo è di sicuro 😉)
al di la del gioco. la 4090 in qualsiasi titolo non verrebbe sfruttata al 100% in qhd , é una condizione di cpu limited assoluta al quale é impossibile venirne fuori.
allora come dice @Max(IT) il "bottleneck" deve essere un problema

cioè rovuinarti l'esperienza di gioco ossia nell'incidenza del frametime

Se il frametime è piatto non ci sta nessun problema a fare in un gioco 160 fps piuttosto che 200 non cambia nulla
il bottleneck defiinito collo di bottiglia puo essere piu o meno intenso, causera un problema serio solo nei casi piu gravi.
--- i due messaggi sono stati uniti ---
No. In quel caso a causare il “sottoimpiego” della GPU è causato da una scheda video troppo potente, per quel gioco, in relazione alla risoluzione. Se vogliamo indicare un “bottleneck”, questo è causato dalla risoluzione del monitor, non dalla CPU. Qui abbiamo CPU SOTTOIMPIEGATE (meno del 50%) e GPU pure. Quale bottleneck ? 🤦🏻‍♂️
se leggi bene , il bottleneck non é dovuto solo dalla cpu, la cpu é solamente uno dei tanti componenti che puo generare bottleneck
 
al di la del gioco. la 4090 in qualsiasi titolo non verrebbe sfruttata al 100% in qhd , é una condizione di cpu limited assoluta al quale é impossibile venirne fuori.

il bottleneck defiinito collo di bottiglia puo essere piu o meno intenso, causera un problema serio solo nei casi piu gravi.
no ti garantisco che se esiste un bottleneck lo causa nella maggioranza dei giochi sia vecchi che nuovi

un collo sulla CPU non lo risolvi perchè ti sballa il frametime hai stuttering specie quandio ci sono le scene piu complesse
 
Oltretutto se non sbaglio hai anche il vantaggio della ram quad-channel che un bell'aiuto te lo dovrebbe comunque dare. Il tuo sistema è ancora validissimo imho.
si certamente, sto vicino ai 117GB/s come banda, la cpu è deliddata in direct-die, la posso spingere anche a 5000/5100 all-core, daily però alla fine la tengo a 4900..

è tutta la piatta che alla fine è solidissima e se ben "regolata" rende ancora parecchio, pensa che all'epoca si consigliavano i 7700K, cpu che ho avuto (e nemmeno una sola) e che non valeva nulla già in quel momento se non per quattro bench in croce su HWBOT, oggi le puoi usare per non far ballare il tavolino della cucina, insieme ai successivi 8700-9900 ecc... :asd:

il mio ha retto anni senza mai rappresentare un limite, nemmeno con la 4090 alla fine, alla mia risoluzione...

mo vediamo sta nuova piattaforma di fascia alta, io sarei indirizzato verso uno Xeon W7-2495X, un bel 24c/48t senza zozzerie di E-Core tra i piedi... :D
 
no ti garantisco che se esiste un bottleneck lo causa nella maggioranza dei giochi sia vecchi che nuovi

un collo sulla CPU non lo risolvi perchè ti sballa il frametime hai stuttering specie quandio ci sono le scene piu complesse
cosa no? cosa ho detto di sbagliato?
tu fai riferimento ad un ipotetico caso di cpu limited ma il bottlenck non per forza deriva dalla cpu
 
Ma anche qualora ci dovesse essere effettivamente un non ottimale sfruttamento della scheda a causa della CPU, se parliamo di fare 150 fps anzichè 170 senza alcuno stuttering è un bottleneck completamente trascurabile se non ci si impunta nel guardare il numero di fps. Bottleneck non è obbligatoriamente un problema non trascurabile, lo diventa in due casi: c'è stuttering, la differenza di fps decreta il framerate ottimale, davanti a sberle di cento e rotti fps (in RT) è semplicemente una problematica trascurabile. Magari farà la differenza quando suddette schede saranno vecchiotte, dove una ventina di fps faranno una differenza abissale, ma tra 140 e 160, a meno di non impuntarsi a volere il massimo degli fps possibili, è una problematica che non fa alcuna differenza nella qualità dell'esperienza.
 
Ultima modifica:
attenzione che che non esiste solo il bottleneck cpu, basta una qualsiasi componente ad essere sbilanciata per crearsi un collo, CPU, GPU, RAM, SSD, MONITOR.
Ah ok… in questo caso si parla di bottleneck del monitor , che è abbastanza ridicolo (lo definirei scelta della scheda sbagliata 😂)
 
cosa no? cosa ho detto di sbagliato?
tu fai riferimento ad un ipotetico caso di cpu limited ma il bottlenck non per forza deriva dalla cpu
ma è di quello che stiamo parlando comuqnue non so più come spiegarlo, una 4090 non si tiene in QHD è troppo potente

E' inutile chje stai a guardare come "viene sfruttata" non lo sarà
 
Ma anche qualora ci dovesse essere effettivamente un non ottimale sfruttamento della scheda a causa della CPU, se parliamo di fare 150 fps anzichè 170 senza alcuno stuttering è un bottleneck completamente trascurabile se non ci si impunta nel guardare il numero di fps. Bottleneck non è obbligatoriamente un problema non trascurabile, lo diventa in due casi: c'è stuttering, la differenza di fps decreta il framerate ottimale, davanti a sberle di cento e rotti fps è semplicemente una problematica trascurabile. Magari farà la differenza quando suddette schede saranno vecchiotte, dove una ventina di fps faranno una differenza abissale, ma tra 140 e 160, a meno di non impuntarsi a volere il massimo degli fps possibili, è una problematica che non fa alcuna differenza nella qualità dell'esperienza.
si esattamente, finche il gioco rimane fluido tutto é trascurabile e consiglio vivamente di chiudere tutti i programmini e godersi il game 😄
--- i due messaggi sono stati uniti ---
ma è di quello che stiamo parlando comuqnue non so più come spiegarlo, una 4090 non si tiene in QHD è troppo potente
infatti lo sostengo anche io e l`ho sempre sostenuto, se vogliamo essee precisi anche la 4080 ma per lo meno anche se esagerata puo avere ancora un senso
 
si esattamente, finche il gioco rimane fluido tutto é trascurabile e consiglio vivamente di chiudere tutti i programmini e godersi il game 😄
--- i due messaggi sono stati uniti ---

infatti lo sostengo anche io e l`ho sempre sostenuto, se vogliamo essee precisi anche la 4080 ma per lo meno anche se esagerata puo avere ancora un senso
ma infatti pure la 4080 è già una scheda esagerata, per quella risoluzione fiogurarsi una 4090 poi usi pure il dlss che gli scala il rendering
 
In senso generale il collo di bottiglia in un sistema è rappresentato dal processo più lento di una serie, che quindi finisce col dettare il passo agli altri (più veloci).

Poi voi lo usate per dire solo quando è grave... Vabbè allora quando non è grave chiamiamolo "fattore limitante".

La domanda che aveva fatto @Lorenzo Lanas resta:
Perché nessun core è al 100% se è la cpu il fattore limitante ?

Lasciate perdere che gli fps sono già buoni, io sarei curioso di sapere quale è il fattore limitante. È qualcosa legato alla cpu (cambiando la aumentano gli fps) ma non legato alle % di utilizzo dei cores... Forse la banda ram? Forse la pcie 4.0? 🤔
Il fattore limitante in quel caso è l’engine del gioco. A quella risoluzione non può fare di più pur avendo ancora risorse disponibili su CPU e su GPU. Non tutti gli engine sono disegnati per sfornare semplicemente il maggior numero possibile di FPS (alla Rainbow Six per capirci).
 
No @Max(IT) mi dispiace, ma questa volta ha ragione @Kal El 😉
Forse questo è l'evento che @Avets stava aspettando da decenni ma abbiamo scoperto che anche tu non sei infallibile ma "umano" come tutti noi 😁

Se osserviamo il 1° screenshot che "il sommo" ha postato, scopriamo che la GPU è carica al massimo mentre la CPU è al ~56% con risultato finale di 156 FPS.
Nel 2° screenshot con DLSS attivo invece la GPU si carica solo al 77% mentre la CPU rimane pressochè invariata ma il framerate scende a 82 FPS.
. Questo perchè la QUANTITA' di calcoli che il processore deve fare in ogni singolo frame rimane invariato (es, meccaniche di gioco, intelligenza artificiale, movimento foglie, ecc ecc) ma è la velocità (cioè il clock, i gigahertz) che non riesce a stargli dietro. In questo caso aggiungere ulteriori core al processore potrebbe non servire ad una beata fava se il videogioco non è stato programmato e pensato per sfruttare al meglio il più core possibili (operazione tutt'altro che semplice, se non impossibile, da realizzare).

L'esempio portato dal nostro super-UOMO in effetti è calzante! Se lui passa dall'i9 all'i5, di pari gigahertz, avrebbe un carico della CPU che passa dal 50% al 70% (ad esempio) ma poi gli FPS finali del gioco non cambierebbero perchè è la VELOCITA' (per core) che non riesce a stargli dietro.

Come ci dice @crimescene adesso l'ultimo test che @Kal El "il sommo" dovrebbe fare è testare il gioco in 1080p nativi (ovviamente sarebbe scandaloso a livello grafico a causa del monitor 1440p ma è solo per benchmarkare)! Se lui prova il gioco in 1080p nativi, il framerate dovrebbe tornare ad essere ~150 FPS anzi forse qualcosina in più però il carico sul processore dovrebbe rimanere invariato (o aumentare proporzionalmente in base a quanto aumenta l'fps).

DETTO QUESTO
Chiaramente rimane il fatto che la 4090 è una scheda video che è un mostro di potenza, o giochi a Hogwarts Legacy o Cyberpunk 2077 @ 1440p con ray-tracing psyco-hyper-mega loco level attivo oppure per tutti gli altri giochi "leggeri" passi al 4K ... e penso che su questo non ci piove!!!

PS - Scusate non ho citato anche la memoria di sistema: in effetti anche quella concorre alla velocità generale del framerate, anche solo passare da DDR4 a DDR5 estremamente veloci potrebbe aiutare
No, quanto hai scritto non ha alcun senso, parlando in termini informatici.
 
Pubblicità
Pubblicità
Indietro
Top