UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
A me non piace mostrare video perchè fortunatamente molto spesso guardo filmati ... di altra natura 😅

Ho trovato 2 video che fanno un buon confronto, almeno spero, metto alla timeline di COD @ 1080p:

1° video 3070 con 2600 (tempo 2:30):

2° video 3070 con 5600x (tempo 12:04):

I settaggi sono quasi identici, il carico della CPU su entrambe è identico, il numero di core sono identici, ma guardate gli FPS e il relativo carico sulla GPU. Ripeto ancora, magari mi sono sbagliato in qualcosa però a me i settaggi paiono identici e una differenza di 40-45 fps per un settaggio secondario che mi sfugge mi sembra improbabile.
 

What if NVIDIA made RTX 3070 with 16GB?​



Se è vera fa brutto

RTX-3070-MOD-GAME.jpg


NVIDIA NON AUMENTA LA PRODUZIONE DI RTX 40: LE VENDITE DELUDONO?​

 
A me non piace mostrare video perchè fortunatamente molto spesso guardo filmati ... di altra natura 😅

Ho trovato 2 video che fanno un buon confronto, almeno spero, metto alla timeline di COD @ 1080p:

1° video 3070 con 2600 (tempo 2:30):

2° video 3070 con 5600x (tempo 12:04):

I settaggi sono quasi identici, il carico della CPU su entrambe è identico, il numero di core sono identici, ma guardate gli FPS e il relativo carico sulla GPU. Ripeto ancora, magari mi sono sbagliato in qualcosa però a me i settaggi paiono identici e una differenza di 40-45 fps per un settaggio secondario che mi sfugge mi sembra improbabile.
Non ti sei sbagliato in niente, funziona così.
 
In senso generale il collo di bottiglia in un sistema è rappresentato dal processo più lento di una serie, che quindi finisce col dettare il passo agli altri (più veloci).

Poi voi lo usate per dire solo quando è grave... Vabbè allora quando non è grave chiamiamolo "fattore limitante".

La domanda che aveva fatto @Lorenzo Lanas resta:
Perché nessun core è al 100% se è la cpu il fattore limitante ?

Lasciate perdere che gli fps sono già buoni, io sarei curioso di sapere quale è il fattore limitante. È qualcosa legato alla cpu (cambiando la aumentano gli fps) ma non legato alle % di utilizzo dei cores... Forse la banda ram? Forse la pcie 4.0? 🤔

Per me la situazione è questa.: c'è il mainthread del gioco che non è suddivisibile su più thread, quindi è limitato dalle prestazioni single thread che il sistema è in grado di garantire: a questo partecipano, non solo la CPU con la sua architettura e frequenza, ma anche la velocità delle memorie.
L'anomalia è che tu, giustamente, in un caso simile ti aspetteresti un core al 100%, ma non è detto che accada. Ricordiamoci che i software di misura monitorano i dati in intervalli di tempo piuttosto grandi,solitamente 1-2 secondi (poi comunque si può impostare). Una CPU moderna in 1 secondo fa qualcosa come 5 miliardi di cicli.
Lo scheduler del sistema operativo (Windows, in questo caso ma vale lo stesso con altri S.O) può decidere di tanto in tanto di spostare i processi da un core all'altro e lo fa a intervalli di tempo ben minori di 1 secondo. Il risultato è che, durante l'intervallo di monitoraggio del software, il core è stato impegnato al 100% per un certo intervallo di tempo in cui si è occupato del mainthread, poi il mainthread è stato spostato e il core è "andato in vacanza": del resto un 5900x ha 12 core e 24thread, ben più di quanto serva in qualsiasi videogame attuale.

Lo si vede bene anche facendo girare dei benchmark single core:

1682345388869.png

Questo è un Cinebench R23 ST fatto girare su un Ryzen 5800U (sono sul portatile): come vedete ci sono 4 thread impegnati e nessuno è al 100%. Eppure, per definizione, questo è un carico monothread... Magie dello scheduling. Ciò non vuol certo dire che se avessi una CPU più veloce in carichi single thread non completerei il task più velocemente.

Il fattore limitante in quel caso è l’engine del gioco. A quella risoluzione non può fare di più pur avendo ancora risorse disponibili su CPU e su GPU. Non tutti gli engine sono disegnati per sfornare semplicemente il maggior numero possibile di FPS (alla Rainbow Six per capirci).

Se fosse come dici tu cambiando CPU dovrebbe fare gli stessi identici FPS. Potrebbe anche essere vero, in qualche gioco, ma nella maggior parte dei casi la RTX4090 in QHD è frenata dalle prestazioni della piattaforma (RAM+CPU), non si scappa da questa cosa: ci sono un sacco di test online che lo dimostrano. Anzi, a volte lo è anche in 4k.
Quindi, posto che un Ryzen 5900x nei giochi moderni garantisce quasi sempre buone prestazioni (mettiamoci il quasi giusto per escludere casi strani tipo certe zone di Flight Simulator, dove in effetti ho sperimentato in prima persona difficoltà), una CPU migliore con la RTX4090 fa meglio. Mi sembra abbastanza ovvio e non capisco dove stia il problema in questo...

Comunque, @Kal El, ogni settimana ci delizi con uno scatto diverso di er giacchetta? Sei consapevole che tra i motivi che possono portare al ban c'è anche un'immagine del profilo "inappropriata" e sono abbastanza voglioso di applicare la sanzione? 🤣
 
Ultima modifica:
Bisognerebbe aggiungere le emoticon del giacchetta in questo thread, altro ché 1682346709636.png🤔
Sono sicuro che piacerebbero a Kal 1682347138404.png😊

Comunque, @Kal El, ogni settimana ci delizi con uno scatto diverso di er giacchetta? Sei consapevole che tra i motivi che possono portare al ban c'è anche un'immagine del profilo "inappropriata" e sono abbastanza voglioso di applicare la sanzione? 🤣
Ma dici sul serio ? 1682346808206.png😳
 
Per me la situazione è questa.: c'è il mainthread del gioco che non è suddivisibile su più thread, quindi è limitato dalle prestazioni single thread che il sistema è in grado di garantire: a questo partecipano, non solo la CPU con la sua architettura e frequenza, ma anche la velocità delle memorie.
L'anomalia è che tu, giustamente, in un caso simile ti aspetteresti un core al 100%, ma non è detto che accada. Ricordiamoci che i software di misura monitorano i dati in intervalli di tempo piuttosto grandi,solitamente 1-2 secondi (poi comunque si può impostare). Una CPU moderna in 1 secondo fa qualcosa come 5 miliardi di cicli.
Lo scheduler del sistema operativo (Windows, in questo caso ma vale lo stesso con altri S.O) può decidere di tanto in tanto di spostare i processi da un core all'altro e lo fa a intervalli di tempo ben minori di 1 secondo. Il risultato è che, durante l'intervallo di monitoraggio del software, il core è stato impegnato al 100% per un certo intervallo di tempo in cui si è occupato del mainthread, poi il mainthread è stato spostato e il core è "andato in vacanza": del resto un 5900x ha 12 core e 24thread, ben più di quanto serva in qualsiasi videogame attuale.
In parole povere si spiega il perché, in una CPU multithread, la rappresentazione esatta dell'utilizzo dei core/thread è abbastanza aleatoria e non è corretto fare la somma del carico % sui singoli core/thread per capire se si è in full load o meno.
Per chi volesse approfondire il computo del carico core/thread sulle CPU:

 
Sulla 4080 perdendo lo 0.5% di prestazioni ho perso 60W di consumo, e faccio girare CP2077 a 250W… direi che ci sta.
Ma se comprate una 4090 e poi parlate di consumi … 🤣
La rtx 4090 ha consumi ridotti del 0,671% rispetto alla maionese, poi in 4K vedi il distacco rispetto alla tua del 60%, ma io la utilizzo in QHD quindi ciò che ho detto non ha senso, ma e sottolineo MA, oggi piove e ho ritirato i panni, i 24GB di vram che sono, 24-16 = 8GB in più rispetto alla tua, mi offrono la possibilità di giocare ai Giochi moderni, i giochi del futuro, oggi ho mangiato pasta e pomodorini, mentre te rischi di saturare i 16GB in 1440p.
Non riuscite a stare dietro ai miei ragionamenti e tu @Max(IT) mangi la Raclette, quindi fai male ad utilizzarla in QHD perché la mia rtx 4090 è adatta a quella risoluzione, tu dovresti utilizzarla in 1080p.
supermanlives2.0.0.1436561759.webp
 
La rtx 4090 ha consumi ridotti del 0,671% rispetto alla maionese, poi in 4K vedi il distacco rispetto alla tua del 60%, ma io la utilizzo in QHD quindi ciò che ho detto non ha senso, ma e sottolineo MA, oggi piove e ho ritirato i panni, i 24GB di vram che sono, 24-16 = 8GB in più rispetto alla tua, mi offrono la possibilità di giocare ai Giochi moderni, i giochi del futuro, oggi ho mangiato pasta e pomodorini, mentre te rischi di saturare i 16GB in 1440p.
Non riuscite a stare dietro ai miei ragionamenti e tu @Max(IT) mangi la Raclette, quindi fai male ad utilizzarla in QHD perché la mia rtx 4090 è adatta a quella risoluzione, tu dovresti utilizzarla in 1080p.
Visualizza allegato 458348
La mia 4090 è stata spedita...speriamo che arrivi
 
--- i due messaggi sono stati uniti ---
Se non arriva la vai a prendere te.
Se esce la rtx 4090ti, andrai a sostituirla ? Non ce niente di male, chiedo per semplice curiosità.
No certo
 
Pubblicità
Pubblicità
Indietro
Top