il bottleneck di cpu è una brutta bestia e porta a strani risultati.
guarda qui:
Visualizza allegato 401925
la 3090 con il 1600X va peggio della 3070, che non ha senso tecnicamente.
qui ad esempio la 5700xt batte entrambe le Ampere sempre con il 1600X
Visualizza allegato 401928
roba da mal di testa.
non è roba da mal di testa, ma è normale.
la differenza è solo il carico che c'è sul megathread principale.
le CPU nvidia sono modulari, più son grosse, più moduli (GPC) hanno, più i driver devono lavorare per gestire il numero maggiore di thread grafici derivati possibili, ma questo costa anche lavoro alla CPU e se la CPU è già in bottleneck... non fai altro che diminuire ulteriormente la possibilità di gestire il lavoro.
per quanto riguarda la differenza tra 5700 XT e nvidia, dipende sia dall'architettura ma soprattuto dal peso computazionale dei driver.
sono differenti e usano modi differenti di funzionare.
AMD, in molti casi, è sempre stata più snella nei suoi driver, caricando meno la CPU.
la spiegazione di quegli istogrammi è decisamente semplice:
in cyberpunk 2077 sia la 5600 XT che la 5700 XT sono spremute entrambe al 100% già con un 1600x, che tu usi una CPU con più core è uguale, perchè questi sono giochi che non sfruttano più di 6 thread grafici.
sullo stesso gioco, con la 3070, vedi che il 1600x fa da bottleneck, mentre le altre CPU, offrendo qualche mhz in più sul core che regge il megathread, riescono a massimizzare l'uso della scheda.
ma è un gioco "ROTTO".
probabilmente se prendi una diversa situazione cominci a vedere una scaletta anche su questa scheda, perchè l'uso che fa della GPU non è costante.
sulla 3090, che offre una notevole potenza di calcolo, vedi scalare le CPU per il loro IPC x frequenza massima.
il fatto che il 1660x non ti offra la medesima prestazione tra 3090 e 3070 può essere dovuto al maggior peso dei driver, o a semplici variazioni delle medie (il classico errore di rilevazione).
Per fare un confronto sulle CPU se sono in bottleneck devi poi andare a gardare i minimi, perchè sono quelli che, solitamente, raffigurano la situazione della sequenza più pesante per la CPU (basta che fai un plot comparato tra framerate e uso del core principale per vederlo.. purtroppo le analisi che fanno sulle testate specializzate lasciano molto a desiderare e non ti mostrano mai dati aggregati nel modo più significativo per mostrare qualcosa di serio).
in TC'sRSS la situazione è la medesima, solo con un valore del framerate superiore.
a dire il vero sono valori che sono abbastanza attendibili.
poi, per altre considerazioni, si dovrebbe analizzare gioco per gioco, perchè ci sono un'infinità di altre questioni dovute al modo in cui sono stati, singolarmente, sviluppati.
Ad esempio, per l'inserimeno o meno di un valore di setting troppo elevato, puoi mandare in breakdown la memoria di un tipo di modello di scheda video e non svantaggiarne un altro.
magari ritarando l'intensita di un effetto vedi che una scheda che prima era decisamente sotto arriva in cima alla scala delle prestazioni di confronto, proprio perchè le architetture funzionano diversamente, ma si deve considerare anche il modello esatto di scheda che si ha per le mani...
ad esempio le AMD sono affamate di banda di memoria e basta realmente poco per saturarla e, praticamente, rendere inutili parte delle sue unità di calcolo, che si trovano senza macinare più dati...
non so te, ma io, prima d'iniziare un gioco, mi faccio un piccolo tweaking sui vari parametri presettati, e spesso e volentieri miglioro il framerate togliendo quasi nulla all'aspetto grafico.
è anche per questo che, quando leggo un test di comparazione, mi piacerebbe vedere anche i settaggi per cui hanno impostato il test, perchè spesso vedo risultati assai diversi tra una testata e l'altra e mi fido solo di chi usa setting standard o ben illustrati e con modifiche giustificate.
se lo faccio io a casa e recupero anche un 10-15% senza perdere nulla in grafica, nessuno mi assicura che non lo facciano anche loro per far vedere una cosa per un'altra.
la domanda che spesso mi faccio è per quale motivo settano certi valori se poi alcune schede possono risentirne così tanto ma la differenza sulla grafica è pressoché nulla (è una domanda retorica; sono ben consapevole del perchè gli sviluppatori fanno certe scelte).
--- i due messaggi sono stati uniti ---
Sono relative al single core.
Comunque, credo di aver risolto il problema. Alcune operazioni nascoste in background impiegavano la cpu in maniera spropositata (fino al 40%!). Una volta chiuse, ho ottenuto punteggi normali sia su cpu-z che su cinebench (dove ho superato i 1000 punti). Questo ha anche risolto i problemi su Cyberpunk 2077. Tra questo e l'aumento artificiale della risoluzione (dynamic super resolution da GeForce Experience), ottengo prestazioni tutto sommato buone - tra i 50 e i 60 fotogrammi con Ray Tracing attivo. Un cambio di cpu, in ogni caso, è necessario, ma a questo punto aspetterei l'uscita di processori che supportino le DDR5. Grazie, comunque, per tutti i vostri consigli, per me sono stati preziosissim!
il cambio di CPU ti è necessario solo se ti serve tenere aperte le operazioni in background.
4 core son giusto il minimo sindacale per un gioco odierno, almeno con una scheda di prestazioni medie e su giochi a dir poco grossolani come CB 2077; se pretendi anche di tenere discord aperto o sentire musica o l'antivirus che scandaglia... ecco perchè oggi si consigliano gli octacore (se non i dodecacore se il PC deve fare un sacco di altre cose, come lo streaming).