PROBLEMA RTX 3070... senza senso

crimescene

Super Moderatore
Staff Forum
Utente Èlite
35,969
15,608
CPU
Intel Core i7 10700k
Dissipatore
Artic Freeze 2 360
Scheda Madre
Asus Z490 TUF Plus (wifi)
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
32GB DDR4 @ 3000 Corsair Vengeance lpx
GPU
EVGA RTX 3080 XC3 Ultra Gaming
Audio
Realtek Hd Audio
Monitor
1.LG Ultragear 27GL850 QHD 144 2.Asus VS228
PSU
Corsair HX750i
Case
Sharkoon TG5 RGB
Periferiche
Quisan Magicforce 108 tasti Switch Brown
Net
TIm 200 Mega
OS
Windows 10 Pro
Ok, ho scaricato HWiNFO64, ho fatto partire il benchmark e poco dopo uno screen di HWiNFO64. La prima cosa che mi è saltata all'occhio sono le frequenze RAM a 1200 Mhz. Le mie ram ddr4 sono da 2400. O forse è normale e il problema è un altro?
hai un disco che non va
 

Horrorvacui

Nuovo Utente
32
1
CPU
AMD FX 8350 @4,2
Dissipatore
Cooler Master Hyper 212 EVO
Scheda Madre
Asus M5A97 EVO r 2.0
HDD
500 Gb
RAM
16 Gb DDR3 Corsair Vengeance
GPU
R9 280x Vapor-x Tri-x
Monitor
Asus vx239h
PSU
Corsair CX750M
Case
iTek Zeero
OS
Windows 10 Professional 64 bit
no no è DDR quindi la frequenza va moltip0licata per 2 ....

Mi servono i grafici di HWiNFO64, non la schermata riassuntiva. La parte sensori.
Spero si veda tutto ciò che serve. Screen fatto poco dopo aver avviato il benchmark con cinebench
 

Allegati

  • Immagine.jpg
    Immagine.jpg
    232.3 KB · Visualizzazioni: 34

crimescene

Super Moderatore
Staff Forum
Utente Èlite
35,969
15,608
CPU
Intel Core i7 10700k
Dissipatore
Artic Freeze 2 360
Scheda Madre
Asus Z490 TUF Plus (wifi)
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
32GB DDR4 @ 3000 Corsair Vengeance lpx
GPU
EVGA RTX 3080 XC3 Ultra Gaming
Audio
Realtek Hd Audio
Monitor
1.LG Ultragear 27GL850 QHD 144 2.Asus VS228
PSU
Corsair HX750i
Case
Sharkoon TG5 RGB
Periferiche
Quisan Magicforce 108 tasti Switch Brown
Net
TIm 200 Mega
OS
Windows 10 Pro
ma è un 7700 liscio che scehda madre hai? hai fatto girare il test con hwinfo64 aperto fino alla fine?
 

Horrorvacui

Nuovo Utente
32
1
CPU
AMD FX 8350 @4,2
Dissipatore
Cooler Master Hyper 212 EVO
Scheda Madre
Asus M5A97 EVO r 2.0
HDD
500 Gb
RAM
16 Gb DDR3 Corsair Vengeance
GPU
R9 280x Vapor-x Tri-x
Monitor
Asus vx239h
PSU
Corsair CX750M
Case
iTek Zeero
OS
Windows 10 Professional 64 bit
hai un disco che non va
è un HDD dove tengo dati alcuni dati personali come immagini, foto, ecc. Si attiva solo quando apro una cartella contenuta all'interno di esso
Post automatically merged:

ma è un 7700 liscio che scehda madre hai?
Sì è quello liscio. MSI H270 Gaming M3
Post automatically merged:

Ecco i valori dopo qualche minuto in più
 

Allegati

  • Immagine.jpg
    Immagine.jpg
    211.1 KB · Visualizzazioni: 30

Max(IT)

Moderatore
Staff Forum
5,542
1,776
CPU
Ryzen 7 5800X
Dissipatore
Noctua NH-D15
Scheda Madre
Asus ROG Strix B550-F Gaming
HDD
Samsung 970EVO + WD Blue SSD
RAM
G.Skill Trident Z RGB 3600CL16 32 Gb
GPU
Zotac RTX 3080 Amp HOLO
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G3 750W
Case
Corsair 5000D Airflow
Spero si veda tutto ciò che serve. Screen fatto poco dopo aver avviato il benchmark con cinebench
ma queste schermate sono relative all'esecuzione di Cinebench in single core o multi core ?
 

Horrorvacui

Nuovo Utente
32
1
CPU
AMD FX 8350 @4,2
Dissipatore
Cooler Master Hyper 212 EVO
Scheda Madre
Asus M5A97 EVO r 2.0
HDD
500 Gb
RAM
16 Gb DDR3 Corsair Vengeance
GPU
R9 280x Vapor-x Tri-x
Monitor
Asus vx239h
PSU
Corsair CX750M
Case
iTek Zeero
OS
Windows 10 Professional 64 bit
ma queste schermate sono relative all'esecuzione di Cinebench in single core o multi core ?
Sono relative al single core.

Comunque, credo di aver risolto il problema. Alcune operazioni nascoste in background impiegavano la cpu in maniera spropositata (fino al 40%!). Una volta chiuse, ho ottenuto punteggi normali sia su cpu-z che su cinebench (dove ho superato i 1000 punti). Questo ha anche risolto i problemi su Cyberpunk 2077. Tra questo e l'aumento artificiale della risoluzione (dynamic super resolution da GeForce Experience), ottengo prestazioni tutto sommato buone - tra i 50 e i 60 fotogrammi con Ray Tracing attivo. Un cambio di cpu, in ogni caso, è necessario, ma a questo punto aspetterei l'uscita di processori che supportino le DDR5. Grazie, comunque, per tutti i vostri consigli, per me sono stati preziosissim!
 
  • Like
Reactions: milkyway

gronag

Utente Èlite
20,682
7,027
Sono relative al single core.

Comunque, credo di aver risolto il problema. Alcune operazioni nascoste in background impiegavano la cpu in maniera spropositata (fino al 40%!). Una volta chiuse, ho ottenuto punteggi normali sia su cpu-z che su cinebench (dove ho superato i 1000 punti). Questo ha anche risolto i problemi su Cyberpunk 2077. Tra questo e l'aumento artificiale della risoluzione (dynamic super resolution da GeForce Experience), ottengo prestazioni tutto sommato buone - tra i 50 e i 60 fotogrammi con Ray Tracing attivo. Un cambio di cpu, in ogni caso, è necessario, ma a questo punto aspetterei l'uscita di processori che supportino le DDR5. Grazie, comunque, per tutti i vostri consigli, per me sono stati preziosissim!
Ok, vediamo se posso fornirti qualche elemento utile: innanzitutto assicurati che nel bios siano attivate tutte le funzioni caratteristiche (i C-States, il Turbo Boost, lo SpeedStep, ecc.) della CPU 😉
Poi esegui un benchmarking (o uno stress test) con XTU e fammi sapere le frequenze massime dei Core e la temperatura massima raggiunta durante il test.
Controlla il power limit throttling (eventualmente posta uno screenshot di XTU a fine test).
La RAM è a singolo o a doppio canale ? 🙄
Hai sistemato bene il dissipatore e la pasta termica ?
Il 7700 ha un TDP limite di 65W, questo vuol dire che in certi casi, per rimanere entro quel limite, è costretto a "rallentare" (si chiama power limit throttling).
Verifica se nel bios è contemplata la possibilità di sbloccare il turbo power limit (di solito nelle mainboard Asrock e credo anche in quelle Asus i relativi settaggi si trovano al tab Ai Tweaker) ed eventualmente fai sapere, nel caso non dovesse esserci nulla si potrebbe procedere con ThrottleStop.
Ciao, a presto 🙂
 

BWD87

Moderatore
Staff Forum
Utente Èlite
33,943
20,325
CPU
Core i5 10600k @5,1GHz cache x49
Dissipatore
Corsair Hydro h100x (2x ml120pro white led push + 2x ml120 pull)
Scheda Madre
MSI Z490 Tomahawk
HDD
ADATA XPG SX6000 128GB (SO) + Crucial MX500 1TB (giochi) + Seagate Barracuda 1TB (storage vario)
RAM
32Gb Crucial Ballistix DDR4 3600MHz C16 @4000mhz 17-19-19-38
GPU
MSI GeForce GTX 1070Ti AERO + kraken g12/kraken x31 @2114core/4554vram + 2x sp120 pwm
Monitor
AOC AG271QX
PSU
Corsair TX550M
Case
Corsair Carbide 400R moddato
Periferiche
Ventole case: 3x silent wings 2 in, 2x sp140 led in, 1x sp140 led out
OS
Windows 10
Il problema qui è anche la ram lenta a 2400mhz. Si può avere uno screenshot di cpuz scheda memory?
 

lucusta

Utente Èlite
1,648
1,680
No riducendo i settaggi lo aumenti il collo non lo diminuisci
Puoi credermi o no ma è assolutamente normale quello che ti succede, sarebbe strano il contrario

A) la 3070 è una scheda come la 2080ti oggi come oggi sarebbe byuona anche per il 4k (tu la tieni in full hd @ 60)

B) il 7700 è un quad core, con HT soffre anche con schede più vecchio figurarsio aon una 3070

Il, collo lo attenui mettendo og ni dettaglio al massimo e aumentando la risoluzione non diminuaendola hai un collo sulla CPU, ma in questo caso non puoi fare nulla se noncambiare sistema o provare a mettere un monitor 4k (in questo modo il carico si sposterà sulla GPU visto che hai una 3070 e comunue in 4k ti giochi la fluidità in RT con quella scheda e per il DLSS cio vuole sempre un processore milgiore )


Cosa che ti sconsiglio di fare

Ti ripeto CPU-z non è un test da prendere in considerazione
che lui la tiene in FHD, al massimo andrà come se fosse in 4K...
la CPU tanti FPS li riesce a fare in 4K, tanti ne riesce a fare in FHD, minimo!

CBP.PNG

qui vedi che con la 3070 ed un 7700 non overclockato si arriva a 69/60 media/min in FHD,

CBP RTX.PNG

mentre in RTX stai a 42/37 media/min come riportato dall'utente, ma ci stai anche con un 10900K, segno che è la GPU che è al limite delle prestazioni eseguibili, non la CPU.

CBP RTX DLSS.PNG

in FHD RTX DLSS le cose sono intermedie, con 54/47 media/min.

stessa cosa su WD2...

WD2 FHD.PNG WD2 RTX DLSS FHD.PNG WD2 RTX FHD.PNG

il 7700K a default perde poco o nulla a confronto di CPU migliori anche a risoluzioni a lui meno favorevoli (perchè potrebbero offrire più FPS grazie al minor lavoro per frame della GPU).

ma fate i conti su due giochi che sono "rotti"...

di per se è indicativo il CPU-Z: è la CPU, ma perchè hai fatto un montaggio approssimativo e non dissipa bene il calore, andando in trotteling o perchè hai montato male la CPU.
quelli che ti ho postato sopra sono i valori di riferimento del tuo sistema... possono variare di un 5% in più o in meno, ma il benchmark di CPU-Z non lascia dubbi su quello che sta succedendo..
 
  • Like
Reactions: BWD87

crimescene

Super Moderatore
Staff Forum
Utente Èlite
35,969
15,608
CPU
Intel Core i7 10700k
Dissipatore
Artic Freeze 2 360
Scheda Madre
Asus Z490 TUF Plus (wifi)
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
32GB DDR4 @ 3000 Corsair Vengeance lpx
GPU
EVGA RTX 3080 XC3 Ultra Gaming
Audio
Realtek Hd Audio
Monitor
1.LG Ultragear 27GL850 QHD 144 2.Asus VS228
PSU
Corsair HX750i
Case
Sharkoon TG5 RGB
Periferiche
Quisan Magicforce 108 tasti Switch Brown
Net
TIm 200 Mega
OS
Windows 10 Pro
no n p[uoi fare quell'analisi su cyberpunk non ha senso
]
CP è un gioco che in uan zona della città fa 40 fps in un altra ne fa 70 senza toccare le impostazioni grafiche , pure su legion quei test non hanno senso specie in DLSS perchè pè proprio il processore a fare da collo


di per se è indicativo il CPU-Z: è la CPU, ma perchè hai fatto un montaggio approssimativo e non dissipa bene il calore, andando in trotteling o perchè hai montato male la CPU.

Il throttling va verificato lui ha detto che non lo ha aveve più genericamente "programmi"che lo limitavano ma io non credo che sia nemmeno questo ma semplicemente il gioco che passando da una zona ad un altra fa più o meno frame ma che il 7700k limiti la sua scheda al livello generale in FHD è provato in diversi giochi ed il fatto che in 4k ha gli stessi frame non fa che confermarlo

Io a CP ci gioco tutti i giorni e quei risultati nons ono realistici, ti garantisco che la diofferenza del processore csu una RTX c'è
 
Ultima modifica:

Max(IT)

Moderatore
Staff Forum
5,542
1,776
CPU
Ryzen 7 5800X
Dissipatore
Noctua NH-D15
Scheda Madre
Asus ROG Strix B550-F Gaming
HDD
Samsung 970EVO + WD Blue SSD
RAM
G.Skill Trident Z RGB 3600CL16 32 Gb
GPU
Zotac RTX 3080 Amp HOLO
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G3 750W
Case
Corsair 5000D Airflow
che lui la tiene in FHD, al massimo andrà come se fosse in 4K...
la CPU tanti FPS li riesce a fare in 4K, tanti ne riesce a fare in FHD

il bottleneck di cpu è una brutta bestia e porta a strani risultati.
guarda qui:

1614087797448.png


la 3090 con il 1600X va peggio della 3070, che non ha senso tecnicamente.

qui ad esempio la 5700xt batte entrambe le Ampere sempre con il 1600X


1614087921181.png



roba da mal di testa.
 

lucusta

Utente Èlite
1,648
1,680
no n p[uoi fare quell'analisi su cyberpunk non ha senso
]
CP è un gioco che in uan zona della città fa 40 fps in un altra ne fa 70 senza toccare le impostazioni grafiche , pure su legion quei test non hanno senso specie in DLSS perchè pè proprio il processore a fare da collo




Il throttling va verificato lui ha detto che non lo ha aveve più genericamente "programmi"che lo limitavano ma io non credo che sia nemmeno questo ma semplicemente il gioco che passando da una zona ad un altra fa più o meno frame ma che il 7700k limiti la sua scheda al livello generale in FHD è provato in diversi giochi ed il fatto che in 4k ha gli stessi frame non fa che confermarlo

Io a CP ci gioco tutti i giorni e quei risultati nons ono realistici, ti garantisco che la diofferenza del processore csu una RTX c'è
puoi metterla in tutti i modi che desideri, ma quei test sono stati fatti sulla medesima zona per tutte le CPU e tutte le GPU in tutte le combinazioni, quindi dicono quello che vedi, che una 3070, su quei giochi, non soffre più di tanto con un 7700K; quantomeno non soffre come indicato dall'utente.
d'accordo che potrebbe aver postato i valori di una vona in cui c'è un intenso uso della GPU, tale da far calare il framerate, ma se cala il framerate, sta sicuro che si alleggerisce il carico anche sulla CPU.

come ho già detto sono giochi "rotti", con framerate instabile, con poca attenzione per i cali di frame portati da troppi elementi a video contemporaneamente, ma se la CPU non arriva ad esprimere il suo potenziale, sarà sempre e comunque in bottleneck...
 

lucusta

Utente Èlite
1,648
1,680
il bottleneck di cpu è una brutta bestia e porta a strani risultati.
guarda qui:

Visualizza allegato 401925

la 3090 con il 1600X va peggio della 3070, che non ha senso tecnicamente.

qui ad esempio la 5700xt batte entrambe le Ampere sempre con il 1600X


Visualizza allegato 401928


roba da mal di testa.
non è roba da mal di testa, ma è normale.
la differenza è solo il carico che c'è sul megathread principale.
le CPU nvidia sono modulari, più son grosse, più moduli (GPC) hanno, più i driver devono lavorare per gestire il numero maggiore di thread grafici derivati possibili, ma questo costa anche lavoro alla CPU e se la CPU è già in bottleneck... non fai altro che diminuire ulteriormente la possibilità di gestire il lavoro.
per quanto riguarda la differenza tra 5700 XT e nvidia, dipende sia dall'architettura ma soprattuto dal peso computazionale dei driver.
sono differenti e usano modi differenti di funzionare.
AMD, in molti casi, è sempre stata più snella nei suoi driver, caricando meno la CPU.

la spiegazione di quegli istogrammi è decisamente semplice:
in cyberpunk 2077 sia la 5600 XT che la 5700 XT sono spremute entrambe al 100% già con un 1600x, che tu usi una CPU con più core è uguale, perchè questi sono giochi che non sfruttano più di 6 thread grafici.
sullo stesso gioco, con la 3070, vedi che il 1600x fa da bottleneck, mentre le altre CPU, offrendo qualche mhz in più sul core che regge il megathread, riescono a massimizzare l'uso della scheda.
ma è un gioco "ROTTO".
probabilmente se prendi una diversa situazione cominci a vedere una scaletta anche su questa scheda, perchè l'uso che fa della GPU non è costante.
sulla 3090, che offre una notevole potenza di calcolo, vedi scalare le CPU per il loro IPC x frequenza massima.
il fatto che il 1660x non ti offra la medesima prestazione tra 3090 e 3070 può essere dovuto al maggior peso dei driver, o a semplici variazioni delle medie (il classico errore di rilevazione).

Per fare un confronto sulle CPU se sono in bottleneck devi poi andare a gardare i minimi, perchè sono quelli che, solitamente, raffigurano la situazione della sequenza più pesante per la CPU (basta che fai un plot comparato tra framerate e uso del core principale per vederlo.. purtroppo le analisi che fanno sulle testate specializzate lasciano molto a desiderare e non ti mostrano mai dati aggregati nel modo più significativo per mostrare qualcosa di serio).

in TC'sRSS la situazione è la medesima, solo con un valore del framerate superiore.

a dire il vero sono valori che sono abbastanza attendibili.

poi, per altre considerazioni, si dovrebbe analizzare gioco per gioco, perchè ci sono un'infinità di altre questioni dovute al modo in cui sono stati, singolarmente, sviluppati.

Ad esempio, per l'inserimeno o meno di un valore di setting troppo elevato, puoi mandare in breakdown la memoria di un tipo di modello di scheda video e non svantaggiarne un altro.
magari ritarando l'intensita di un effetto vedi che una scheda che prima era decisamente sotto arriva in cima alla scala delle prestazioni di confronto, proprio perchè le architetture funzionano diversamente, ma si deve considerare anche il modello esatto di scheda che si ha per le mani...
ad esempio le AMD sono affamate di banda di memoria e basta realmente poco per saturarla e, praticamente, rendere inutili parte delle sue unità di calcolo, che si trovano senza macinare più dati...

non so te, ma io, prima d'iniziare un gioco, mi faccio un piccolo tweaking sui vari parametri presettati, e spesso e volentieri miglioro il framerate togliendo quasi nulla all'aspetto grafico.
è anche per questo che, quando leggo un test di comparazione, mi piacerebbe vedere anche i settaggi per cui hanno impostato il test, perchè spesso vedo risultati assai diversi tra una testata e l'altra e mi fido solo di chi usa setting standard o ben illustrati e con modifiche giustificate.
se lo faccio io a casa e recupero anche un 10-15% senza perdere nulla in grafica, nessuno mi assicura che non lo facciano anche loro per far vedere una cosa per un'altra.
la domanda che spesso mi faccio è per quale motivo settano certi valori se poi alcune schede possono risentirne così tanto ma la differenza sulla grafica è pressoché nulla (è una domanda retorica; sono ben consapevole del perchè gli sviluppatori fanno certe scelte).
Post automatically merged:

Sono relative al single core.

Comunque, credo di aver risolto il problema. Alcune operazioni nascoste in background impiegavano la cpu in maniera spropositata (fino al 40%!). Una volta chiuse, ho ottenuto punteggi normali sia su cpu-z che su cinebench (dove ho superato i 1000 punti). Questo ha anche risolto i problemi su Cyberpunk 2077. Tra questo e l'aumento artificiale della risoluzione (dynamic super resolution da GeForce Experience), ottengo prestazioni tutto sommato buone - tra i 50 e i 60 fotogrammi con Ray Tracing attivo. Un cambio di cpu, in ogni caso, è necessario, ma a questo punto aspetterei l'uscita di processori che supportino le DDR5. Grazie, comunque, per tutti i vostri consigli, per me sono stati preziosissim!
il cambio di CPU ti è necessario solo se ti serve tenere aperte le operazioni in background.
4 core son giusto il minimo sindacale per un gioco odierno, almeno con una scheda di prestazioni medie e su giochi a dir poco grossolani come CB 2077; se pretendi anche di tenere discord aperto o sentire musica o l'antivirus che scandaglia... ecco perchè oggi si consigliano gli octacore (se non i dodecacore se il PC deve fare un sacco di altre cose, come lo streaming).
 

Frangy

Utente Attivo
825
206
Sono relative al single core.

Comunque, credo di aver risolto il problema. Alcune operazioni nascoste in background impiegavano la cpu in maniera spropositata (fino al 40%!). Una volta chiuse, ho ottenuto punteggi normali sia su cpu-z che su cinebench (dove ho superato i 1000 punti). Questo ha anche risolto i problemi su Cyberpunk 2077. Tra questo e l'aumento artificiale della risoluzione (dynamic super resolution da GeForce Experience), ottengo prestazioni tutto sommato buone - tra i 50 e i 60 fotogrammi con Ray Tracing attivo. Un cambio di cpu, in ogni caso, è necessario, ma a questo punto aspetterei l'uscita di processori che supportino le DDR5. Grazie, comunque, per tutti i vostri consigli, per me sono stati preziosissim!
in cyberpunk avevo messo varie patch, stringhe e tools famoso per mandarlo meglio....
dopo un po non mi prendeva bene rtx e dlss. Con dlss attivo andavo uguale. e cose strane
ho risolto Disinstallando il gioco e scaricato una versione piu aggiornata, girava una crema con la 3070 ;)
 

lucusta

Utente Èlite
1,648
1,680
il bottleneck di cpu è una brutta bestia e porta a strani risultati.
guarda qui:

Visualizza allegato 401925

la 3090 con il 1600X va peggio della 3070, che non ha senso tecnicamente.

qui ad esempio la 5700xt batte entrambe le Ampere sempre con il 1600X


Visualizza allegato 401928


roba da mal di testa.


bello l'articolo da cui hai preso queste immagini:

viene citato spesso in giro, nei forum...
spesso però con un accettazione leggermente diversa.
 

Entra

oppure Accedi utilizzando

Hot: Quale crypto per il futuro?

  • Bitcoin

    Voti: 37 55.2%
  • Ethereum

    Voti: 24 35.8%
  • Cardano

    Voti: 13 19.4%
  • Polkadot

    Voti: 2 3.0%
  • Monero

    Voti: 7 10.4%
  • XRP

    Voti: 10 14.9%
  • Uniswap

    Voti: 0 0.0%
  • Litecoin

    Voti: 6 9.0%
  • Stellar

    Voti: 6 9.0%
  • Altro (Specifica)

    Voti: 10 14.9%

Discussioni Simili