UFFICIALE Nvidia RTX 4000 (Lovelace)

Pubblicità
@BAT Perché cambiando cpu con una più potente aumentano gli fps, quindi il fattore limitante deve essere la cpu.

O, se non è proprio la cpu, è almeno lato cpu 🤔
 
Stai facendo un pastrocchio … il rendering lo fa la CPU o la GPU ? Perché nella stessa frase hai scritto due cose diverse (ti aiuto io, nel gioco il rendering lo fa la GPU). 😉
Il fatto che aggiungere più core non aiuti è slegato dal discorso che stavamo facendo. I giochi oggi come oggi scalano mediamente su 6 core al massimo. Qualcuno arriva anche ad 8… ma per quanto in futuro la situazione possa cambiare , il gaming non è un genere di applicazione dove si può parallelizzare tutto. Torniamo al discorso iniziale: il 5900X non è una CPU da gaming perché gran parte dei suoi core non saranno usati mai (e li arriverà per primo il limite di IPC, questo è vero).
@Max(IT), dammi retta, è come dico io, è come dice @Kal El. Lo so che è difficile ascoltare le mie parole, ma devi assolutamente fidarti delle parabole pronunziate dal "sommo" 😉 CPU e GPU non lavorano in maniera asincrona e possono esserci dei casi, specialmente nei giochi ottimizzati ad-cazzum, dove una deve attendere l'altra. Per cui possono verificarsi casi dove la CPU ha un carico medio complessivo del 50% (ma anche meno) ma la GPU poi de-facto viene sotto-sfruttata. In quel caso aumentare l'IPC migliora il framerate generale. Che poi magari non sia la CPU di per sé è una questione diversa, magari è la memoria, magari è il disco, magari il sistema, o magari il processore va in throttling (che cacchio ne so, dico così per dire), ma se la GPU non è al massimo utilizzo (chessò dal 95% al 100%) allora è la non-GPU.

Oddio non lo so neanche se mi sono capito da solo, scusate 😅
 
guarda mi posso anche sacrificare portando a fare shopping tua moglie mente assembli la nuova piatta, più di così non posso fare... :(

da notare che ho detto "fare shopping", cosa che qualunque UOMO odia fare con la propria compagna, figuriamoci con donne sconosciute, già solo questo ti dovrebbe far capire quanta pena susciti nel prossimo, veramente guarda se penso a quella 4080 su quella piatta che manco ai tempi di Barney Rubble se la sarebbero filata mi prende la depressione...

penso di parlare a nome dell'intera community, upgrada senza voltarti...

:asd:
Sei troppo coraggioso non conosci mia moglie.....

Se la conoscessi davvero mi lasceresti pure con un 2400k

Ma se vuoi ti prendo in parola (credimi è una minaccia)

:D

Inviato dal mio Pixel 7 utilizzando Tapatalk
 
T
Qualcuno mi spieghi numericamente questa situazione:
  • CPU al 50% d'uso
  • GPU al 70%
perché lo considerate bottleneck della CPU? io ho una mia idea al riguardo (anzi ne ho più di una) ma voglio sentire prima il vostro parere
È più facile illustrarlo, ti rispondo brevemente, guarda in questo video/screen, ad esempio su hogwarts legacy, ma anche sugli altri titoli(tenete d’occhio il gpu usage con le diverse cpu, la gpu è sempre la medesima)
Il cpu usage è simile in tutte le cpu(varia in base ai core solitamente), ma guarda la % di utilizzo della gpu con i diversi processori, ad esempio con il 5800X3D la gpu è al 50% del full load con un framerate di 113 fps, mentre con il 7800X3D la gpu è al 75% dell full load con 145 fps.
Il bottleneck è la cpu con una 4090, in questo caso(così come per crime su spiderman con gpu usage al 47%), tale “peso” sulla cpu è una cosa molto mitigata sulle amd proprio per il meno overhead sulla cpu, ecco perché si vantano delle performance a 1440p, proprio perché l’architettura ed in parte i driver amd stressano meno la cpu.
1682330672913.png


 
Ultima modifica:
ad esempio con il 5800X3D la gpu è al 50% del full load con un framerate di 113 fps, mentre con il 7800X3D la gpu è al 75% dell full load con 145 fps
e perché il frametime col 7800X3D è il doppio o più (dalla figura) di quello del 7900X3D e del 13900K?
non mi tornano i conti, dovrebbe essere inferiore: dalla figura frametime del 7800X3D = 16,1ms contro 6,2 e 8,8 rispettivamente del 7900X3D e del 13900K, significa che il 7800X3D sta facendo più fps ma ogni frame viene mostrato per più tempo, è questo che non mi torna
@crimescene
 
Ma assolutamente no, non è proprio la medesima esperienza neanche lontanamente, e non riandiamo su questo discorso altrimenti non la si finisce pù.

se lo dici te, il mondo intero dice l'opposto e devo dire che pure le prove che ho fatto io stesso a casuccia mi trovano daccordissimo :D

alla fine le RTX 40 le ho qui tutte dalla 4070 liscia alla 4090, pure doppie, così come le più recenti CPU Intel e AMD (manca all'appello un 7950X3D ma non per molto)... :D

immagino quindi che tu hai li una 4080 e almeno un 7950X/13900K per supportare quello che dici? almeno lo spero...
--- i due messaggi sono stati uniti ---
Ormai è tardi, ti sei gentilmente offerto :)

Inviato dal mio Pixel 7 utilizzando Tapatalk

da qualche parte c'è un tasto "elimina account"? mi sa che mi tocca...
--- i due messaggi sono stati uniti ---
e perché il frametime col 7800X3D è il doppio o più (dalla figura) di quello del 7900X3D e del 13900K?
non mi tornano i conti, dovrebbe essere inferiore: dalla figura frametime del 7800X3D = 16,1ms contro 6,2 e 8,8 rispettivamente del 7900X3D e del 13900K, significa che il 7800X3D sta facendo più fps ma ogni frame viene mostrato per più tempo, è questo che non mi torna
@crimescene

onestamente non guarderei video del genere, la maggior parte di quelle comparative sono ridicole, vere come una banconota da 300€...

come quelli che mostrano fantomatici video di GPU o CPU non ancora disponibili, sempre palesemente farlocchi...
ricordo ancora un video di una 4070 vs 4070Ti dove manco avevano azzeccato il boost della scheda già sul mercato.. :D
 
Ultima modifica:
Guardate ragazzi che è semplice! Ognuno di voi può provare a ricreare un bottleneck col vostro hardware così come ha fatto "il sommo". Una volta sicuri di aver creato un bottleneck simile vi basta andare nel BIOS e disattivare la metà dei core della CPU, se avete una scheda madre da vero UOMO potrete farlo 🤣 Poi provate nuovamente ad avviare il gioco nelle medesime condizioni e noterete che l'FPS non cambia assolutamente, ma il carico di ogni core aumenterà.

FACILE 😉
 
onestamente non guarderei video del genere, la maggior parte di quelle comparative sono ridicole, vere come una banconota da 300€...
Ma la smettete di negare l'evidenza? poi ci si chiede perché gli utenti abbandonano il forum!
Provalo tu stesso, monta la 4090 sulla piattaforma dove hai la 7080Ti, metti a 1440p e VERIFICA l'ovvio!
 
e perché il frametime col 7800X3D è il doppio o più (dalla figura) di quello del 7900X3D e del 13900K?
non mi tornano i conti, dovrebbe essere inferiore: dalla figura frametime del 7800X3D = 16,1ms contro 6,2 e 8,8 rispettivamente del 7900X3D e del 13900K, significa che il 7800X3D sta facendo più fps ma ogni frame viene mostrato per più tempo, è questo che non mi torna
@crimescene
infatti sono tutti sballai almeno i valori del frametime non corrispondono al valore reale

di quale evidenza parli?
vuoi contrariare il "sommo"

E' bottleneck se lo dice lui è cosi e basta

il tuo misero 48 core non basterà
 
di quale evidenza parli?
se ti riferisci a quella monnezza di video che gira su YT bhe, punterei su fonti più autorevoli fossi in te...
Te ne posso linkare a centinaia...
Qui combacia tutto @crimescene, anche l'allineameto dei pianeti combacia.
Ci vuole umiltà ragazzi, ho diverse lauree, ma resto sempre umile, e quando sbaglio o capisco di non aver ragione, lo ammetto semplicemente, perché è così che si migliora, e non negando l'OVVIO ;)
 
Pubblicità
Pubblicità
Indietro
Top