UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
Giusto per tenersi bassini 😀

bhe per i "bassini" c'è posto nei vari muletti, per il pc1 ci vuole roba seria... :D

la mobo l'ho praticamente decisa, una bella W790 WS di ASRock, come RAM probabilmente inizierò con un 4x24GB (o le nuove Zeta R5 apposite oppure due kit di normali Z5 RGB 7200), la cpu al 90% sarà quella, i W9-3475X/3495X al limite li tengo come opzioni di upgrade futuri quando caleranno o se ci scappa qualche occasione...
 
Ma come fa la risoluzione a rallentare la cpu??
Quella cpu è rallentata da qualcosa!

Ho capito che in 8k il fattore limitante diverrebbe la gpu, grazie, ma siamo in 1440p e la cpu non sta dietro alla gpu, ma i suoi cores non sono neanche al 70%.
Questo è strano. 🤔🤔🤔

Poi ho capito che il sistema è sbilanciato per quella res, ma non significa che la cpu non stia limitando (in maniera non grave) il sistema.

Che fatica, bisogna mettere tutti i puntini sue i con voi 😁

Il mio è un quesito tecnico, non un prpema di prestazioni
Ma infatti chi ha detto che la CPU rallenta ? 🤔
 
bhe per i "bassini" c'è posto nei vari muletti, per il pc1 ci vuole roba seria... :D

la mobo l'ho praticamente decisa, una bella W790 WS di ASRock, come RAM probabilmente inizierò con un 4x24GB (o le nuove Zeta R5 apposite oppure due kit di normali Z5 RGB 7200), la cpu al 90% sarà quella, i W9-3475X/3495X al limite li tengo come opzioni di upgrade futuri quando caleranno o se ci scappa qualche occasione...
per i miei standard sei fuori scala 😆
 
Lo so mi rendo conto che sono concetti difficili da spiegare, e spesso anche da capire, ma ti assicuro che è proprio a livello informatico che il concetto è corretto...
ma guarda che hai interpretato male gli screen nel primo screenshot lui ha attivo il frame generator non è "nativo" per questo fa 150 fps

Col cavolo li fai 150 fps con the witcher 3 complete e tutto il RT attivo, non li faio mica con una 4090manco in QHD

io con il frame genrator attivo ne faccio 110
 
Ma come fa la risoluzione a rallentare la cpu??
Quella cpu è rallentata da qualcosa!

Ho capito che in 8k il fattore limitante diverrebbe la gpu, grazie, ma siamo in 1440p e la cpu non sta dietro alla gpu, ma i suoi cores non sono neanche al 70%.
Questo è strano. 🤔🤔🤔

Poi ho capito che il sistema è sbilanciato per quella res, ma non significa che la cpu non stia limitando (in maniera non grave) il sistema.

Che fatica, bisogna mettere tutti i puntini sue i con voi 😁

Il mio è un quesito tecnico, non un prpema di prestazioni
Ma infatti chi ha detto che la CPU rallenta ?
Perché un videogioco ed il PC su cui gira non sono sistemi perfetti che usano calcoli pronti e lineari per generare la prestazione. Durante una partita la scheda video viene alimentata da informazioni che devono essere messe in un ordine utile e che si possono trovare al momento del bisogno o nella cache del processore o nella ram o nell'SSD. Questi supporti hanno ovviamente pure latenze diverse e, per far si che tutta questa mole di informazioni arrivi alla GPU in maniera coerente, il sistema perde cicli di calcolo in cui materialmente il processore non può fare altro che "aspettare" che si liberi la risorsa necessaria. Per questo anche in caso di bottleneck tante volte difficilmente vedi al CPU piombata al 100%
corretto. Non c’è una formula esatta, ma quando hai una cpu che palesemente fa da collo di bottiglia, spesso hai carico tra il 60/70%. In compenso vedi il frame time che sembra un elettrocardiogramma

Molto semplicemente in alcuni casi il limite è il gioco stesso
E' ovvio che se valuti una gpu del 2023 con un gioco del 2015 (per quanto rinnovato con aggiunta di nuove tecnologie) è facile imbattersi in un "tappo"

Ma spero che nessuno abbia preso una 4000 al solo scopo di rigiocare un titolo di 8 anni fa
Di solito si fa per stare al passo sulle nuove uscite e tutto il vecchio basta che sia godibile (ed un TW3 ad oltre 100 fps lo è di sicuro 😉)
Fa piacere vedere che qualcuno ci arriva 😏

cosa no? cosa ho detto di sbagliato?
tu fai riferimento ad un ipotetico caso di cpu limited ma il bottlenck non per forza deriva dalla cpu
No il bottleneck può essere causato da altro. Ma qui parlavamo della solita sparata di Superman che definiva in bottleneck un 10700K che stava al 50% scarso di utilizzo, postando poi come esempio un 5900X con due core al 60% e gli altri in vacanza 😅
 
Lo so mi rendo conto che sono concetti difficili da spiegare, e spesso anche da capire, ma ti assicuro che è proprio a livello informatico che il concetto è corretto...
Considerando che sono un informatico, no quel concetto va bene spiegato su Twitch…

Un engine non è lineare, i processi non sono tutti uguali, i thread sono diversi… quella spiegazione la darei ad un ragazzino delle medie per spiegare a grandi linee il parallelismo. L’architettura di sistemi è un altra cosa
 
ma questi stanno a dire che il processore fa bottleneck perchè su the witcher 3 complete in dlss e in QHD una 4090 non va al massimo

ma davero davero

non cij andrà mai al massimo manco con un 20600k
Che faccio? Compro un monitor 16K o un I9 15900K/Ryzen 9 9800X3D? E' comunque un gioco recente e non di 8 anni fa...


PS: sapendo già i se ed i ma che puntualizzeranno questo video vi aggiorno sulla situazione:
1) Tutti i processori non X3D vanno peggio perché oltre al basso frame rate aggiungono uno stuttering insopportabile;
2) Il DLSS non aiuta;
3) Cambiare la risoluzione idem come sopra;
4) Il frame generation impazzisce e quindi va disabilitato;
5) DX11 is mey che DX12;
6) E' lo scenario peggiore possibile (aereo impegnativo, città di grandi dimensioni, decollo, tanto traffico aereo etc)
 
Ultima modifica:
Che faccio? Compro un monitor 16K o un I9 15900K/Ryzen 9 9800X3D? E' comunque un gioco recente e non di 8 anni fa...
the witcher 3 complete recente no

il motore grafico è antichissimo, gli hanno impastato male le DX12 insieme al ray tracing quindi per cortesia sarà recente di "uscita" ma è vecchio fatto su RED engine che hanno rinnegato gli stessi sviluppatori di CD project RED passando al più moderno e stavolta si recente Unrelal

Che il motore grafico era vetusto non lo dico io lo dicono loro stessi ma il disastro di CP al lancio è complice anche lo stesso motore grafico inadatto

 
Che faccio? Compro un monitor 16K o un I9 15900K/Ryzen 9 9800X3D? E' comunque un gioco recente e non di 8 anni fa...


PS: sapendo già i se ed i ma che puntualizzeranno questo video vi aggiorno sulla situazione:
1) Tutti i processori non X3D vanno peggio perché oltre al basso frame rate aggiungono uno stuttering insopportabile;
2) Il DLSS non aiuta;
3) Il frame generation impazzisce e quindi va disabilitato;
4) DX11 is mey che DX12;
3) Cambiare la risoluzione idem come sopra;
4) E' lo scenario peggiore possibile (aereo impegnativo, città di grandi dimensioni, decollo, tanto traffico aereo etc)
Eh un simulatore di volo è una brutta bestia… a parte che è influenzato da un gigantesco scambio di dati online, il modello di volo pesa interamente sulla CPU, come la gestione del meteo e molti altri fattori… su un simulatore come quello penso che la CPU sarà il limite per anni
 
si esattamente, finche il gioco rimane fluido tutto é trascurabile e consiglio vivamente di chiudere tutti i programmini e godersi il game 😄
--- i due messaggi sono stati uniti ---

infatti lo sostengo anche io e l`ho sempre sostenuto, se vogliamo essee precisi anche la 4080 ma per lo meno anche se esagerata puo avere ancora un senso
Con la 4080 diciamo che dipende tantissimo dal gioco.
Chiariamoci: dipende dal gioco sempre, ma con la 4080 in 1440P ci sono giochi dove mi resta al 75% (con un 13900K…) andando comunque benissimo, ed altri dove resta fissa al 99%. La 4090 in 1440P è una scelta assurda.
 
Il fattore limitante in quel caso è l’engine del gioco. A quella risoluzione non può fare di più pur avendo ancora risorse disponibili su CPU e su GPU. Non tutti gli engine sono disegnati per sfornare semplicemente il maggior numero possibile di FPS (alla Rainbow Six per capirci).
Ecco, ora ci avviciniamo alla mia domanda.

Quindi il software non è ottimizzato per l'hardware.
Ma si può girare e dire che l'hardware non è ottimizzato per il software.

Se si volesse costruire una ASIC (come quelle per il mining) per quel engine di gioco, cosa si dovrebbe aggiungere/migliorare al 5900x di turno ?

Cioè, i core del 5900x e la 4090 stanno in attesa... di cosa ?
Di dati dalla ram ? Dalla cache ? Di trasferire cose tramite la pcie 4.0 ? Della fine di altri processi che richiedono molti cicli di clock ? 🤔

Questo intendevo, dove sta il limite hardware. Perché deve esserci qualcosa che detta il passo, non è che la cpu vede l'engine e dice "nah, questo lo faccio girare piano e lavoro 1ms si e 2ms no".

Poi magari è impossibile saperlo... ma la domanda era quella.


Vabbé, comunque, di fatto, la cpu può essere il fattore limitante anche senza alcun core vicino al 100%.
Questa cosa non la sapevo 🙄
 
ma guarda che hai interpretato male gli screen nel primo screenshot lui ha attivo il frame generator non è "nativo" per questo fa 150 fps

Col cavolo li fai 150 fps con the witcher 3 complete e tutto il RT attivo, non li faio mica con una 4090manco in QHD

io con il frame genrator attivo ne faccio 110
Ora non ho molto tempo per spiegarmi, però magari mi sto sbagliando io, beninteso 😉

Se la CPU impiega X tempo per renderizzare un singolo frame, facciamo un esempio pratico: 10 millisecondi. Questo significa che il gioco, qualsiasi titolo, il massimo framerate che potrà raggiungere sarà 100 FPS. Se la GPU è in grado di arrivare a tale rendering OK, se non lo è allora viene sotto-sfruttata e si entra nel bottleneck. Come ha detto @Ale3Mac è una questione di IPC. Aggiungendo ulteriori core non migliora perchè è la velocità del singolo compito che blocca visto che non può essere parallelizzata come nelle GPU.
 
Pubblicità
Pubblicità
Indietro
Top