GUIDA AMD RYZEN 5000 (ZEN 3) - Overclock - Temperature - Prestazioni

pc_assembler

Nuovo Utente
115
32
CPU
Intel 13600KF 5.1/3.9 @ 5.6x2-5.5/5.0/4.2
Dissipatore
Thermalright Phantom Spirit 120 SE
Scheda Madre
MSI Z690 Tomahawk
HDD
Hynix Platinum P41 2TB 7000/6500
RAM
Kingston FURY Renegade DR 32GB 3600 C16 @5020 C20 G2 1,5V
GPU
Gainward Phantom RTX 3080Ti 1725/19000 @1935/21500 0,89V
Monitor
Dell S2721DGFA 165Hz
PSU
DEEP COOL DQ 750W
Case
Antec DF700 Flux
OS
Win 11 64bit
Alla faccia dell’utilizzo. ?

Che poi in 1440p il carico di lavoro dovrebbe incidere maggiormente sulla scheda grafica, non sul processore.
occhio, è quello che ha fregato me e motivo per cui ho dovuto aggiornare il 3600

Con nvidia (ma il funzionamento è lo stesso con le rosse) attivando il DLSS anche solo su qualità la risoluzione "vera" diventa inferiore a una 1080p.
Che il dlss non lo abbiano tutti i giochi è vero, ma in death stranding, per intenderci, senza dlss ho avuto 4/5 fps passando dal 3600 al 5800x, mentre con DLSS attivo usavo la 3070 al 75% e son passato da 130fps a 165 (limitato dal monitor).

è un esempio e ne sono conscio, ma dlss e simili saranno il futuro e dove si può aiutano tantissimo (riduzione consumi e calore a parte)

Questo in 2K, in 4K è ancora più imperativo usre il DLSS e i vantaggi sono ancora maggiori. Poi dipende ovviamente, se uno preferisce risoluzione massima (4K) o alto frame (2K), ma in entrambi i casi la dinamica è la stessa


Comunque penso di aver trovato la quadra finale:
+150MHz
-37mV
-28 -25 -30...

Ho perso leggermente in multicore, probabile i maggiori consumi incontrino prima il limite di corrente, ma almeno i core arrivano (e non solo in single) a 5GHz che mi sembra un ottimo risultato. avere un 8core a 5GHz con 70W credo vada bene come bilanciamento
 

midgardian

Utente Attivo
592
104
CPU
AMD Ryzen 7 - 5800x
Dissipatore
ARCTIC Liquid Freezer II 360 A-RGB
Scheda Madre
MSI MAG B550 TOMAHAWK
HDD
Kingston SSD 480GB + SSD Sabrent M.2 1TB
RAM
Crucial Ballistix 3600MHz 32GB
GPU
RX 6900 XT
Audio
Intergrata
Monitor
MSI Optix MAG272CQR
PSU
FOCUS GX-850 Gold
Case
Corsair 5000D
OS
Windows 11
occhio, è quello che ha fregato me e motivo per cui ho dovuto aggiornare il 3600

Con nvidia (ma il funzionamento è lo stesso con le rosse) attivando il DLSS anche solo su qualità la risoluzione "vera" diventa inferiore a una 1080p.
Che il dlss non lo abbiano tutti i giochi è vero, ma in death stranding, per intenderci, senza dlss ho avuto 4/5 fps passando dal 3600 al 5800x, mentre con DLSS attivo usavo la 3070 al 75% e son passato da 130fps a 165 (limitato dal monitor).

è un esempio e ne sono conscio, ma dlss e simili saranno il futuro e dove si può aiutano tantissimo (riduzione consumi e calore a parte)

Questo in 2K, in 4K è ancora più imperativo usre il DLSS e i vantaggi sono ancora maggiori. Poi dipende ovviamente, se uno preferisce risoluzione massima (4K) o alto frame (2K), ma in entrambi i casi la dinamica è la stessa

Non avevo valutato questa cosa in effetti, quindi funziona pure con il FSR, mi rimangio quello che ho detto per l'overclock

Comunque penso di aver trovato la quadra finale:
+150MHz
-37mV
-28 -25 -30...

Ho perso leggermente in multicore, probabile i maggiori consumi incontrino prima il limite di corrente, ma almeno i core arrivano (e non solo in single) a 5GHz che mi sembra un ottimo risultato. avere un 8core a 5GHz con 70W credo vada bene come

Mi sa comunque abbiamo una CPU simile, io ho trovato stabilità e un buon compromesso coi tuoi parametri, ma con -25mV con -37mV crushavo nei giochi
 

pc_assembler

Nuovo Utente
115
32
CPU
Intel 13600KF 5.1/3.9 @ 5.6x2-5.5/5.0/4.2
Dissipatore
Thermalright Phantom Spirit 120 SE
Scheda Madre
MSI Z690 Tomahawk
HDD
Hynix Platinum P41 2TB 7000/6500
RAM
Kingston FURY Renegade DR 32GB 3600 C16 @5020 C20 G2 1,5V
GPU
Gainward Phantom RTX 3080Ti 1725/19000 @1935/21500 0,89V
Monitor
Dell S2721DGFA 165Hz
PSU
DEEP COOL DQ 750W
Case
Antec DF700 Flux
OS
Win 11 64bit
Non avevo valutato questa cosa in effetti, quindi funziona pure con il FSR, mi rimangio quello che ho detto per l'overclock



Mi sa comunque abbiamo una CPU simile, io ho trovato stabilità e un buon compromesso coi tuoi parametri, ma con -25mV con -37mV crushavo nei giochi
l'FSR ammetto di non conoscerlo, ma credo il funzionamento sia lo stesso.

Dire (nel mio caso) gioco in 2K ed avere il dlss è una cavolata. giochi a nemmeno 1080p (1030 o qualcosa di simile, in qualità, figurati in prestazioni, giusto per Cyberpunk e arrivi anche a 900) e li la cpu conta eccome.


a me per ora non ha crashato con 37mV, ma nel caso porto a 25 e va bene lo stesso (ho anche punteggi superiori)


Credo la tua sia leggermente meglio, quantomeno nel multi, probabile il raffreddamento migliore. Io sono con un deepcool da 20€

Diciamo che nel complesso sono mediamente soddisfatto per averla pagata 296€. Cifra che comunque reputo assurda per una cpu
 

Avets

INTEL INSIDE
Utente Èlite
5,138
3,979
CPU
Ryzen 5800x
Dissipatore
Dark rock pro4
Scheda Madre
B550m Mortar
HDD
970evo 512Gb
RAM
4x8Gb Ballistix @3800Mhz 1,4v 15-17-17-36
GPU
Nitro+ 5500XT
Monitor
Itek UWQHD 41" + AOC 27G2U
PSU
Chieftec CNS-650C
Case
CUSTOM
OS
Windows 10 pro
l'FSR ammetto di non conoscerlo, ma credo il funzionamento sia lo stesso
Ni.

Nel senso che entrambi partono da una risoluzione inferiore ma:
- il dlss in primo luogo utilizza informazioni che devono essere elaborate in precedenza dagli sviluppatori in server farm o cose simili perché richiedono parecchio sforzo computazionale.
in secondo luogo poi, se ricordo bene, utilizza anche frame precedenti a quello in elaborazione per riprodurre l'immagine (e questo è quello che porta ad effetti di simil-ghosting in alcuni casi)
- FSR invece è molto più immediato da implementare (a detta degli sviluppatori richiede pochissimo) ed anche più semplice nel funzionamento.
infatti è come un "semplice filtro". Lavora solo sul fotogramma in elaborazione e solo con le informazioni presenti in esso.

Il risultato in termini di prestazioni e qualità dell'immagine su FSR è inferiore alle risoluzioni più basse (dove ha anche meno senso usarlo..) e migliora già dal 2k in poi. In 4k la qualità è praticamente indistinguibile tra FSR e DLSS a meno di non mettersi a zoommare a 400% (cosa del tutto irrealistica).

FSR è una tecnologia free di AMD e probabilmente verrà integrata nelle console (non come opzione ma proprio nei titoli in automatico) avendo anche esse hw amd.
Per questo molto probabilmente la tecnologia che più prenderà piede sarà quella di AMD e il DLSS sarà una tecnologia premium proprietaria che nvidia cercherà di spremere economicamente il più possibile prima di abbandonarla.

Ps. Il DLSS è nato perché "faceva comodo" ad nvidia sfruttare quelle parti di die della sue schede progettate per scopi professionali che altrimenti in gaming sarebbero rimaste inutilizzate. In questo modo tra dlss e ray tracing possono vendere "l'intero die" o quasi anche ai gamers.
Produrre die più grandi del necessario è molto inefficiente economicamente parlando, ma lo è anche (molto di più probabilmente) progettare die diversi per gaming e scopi professionali. In quel modo hanno cercato di prendere due piccioni con una fava e probabilmente (con tonnellate di marketing e addirittura pressioni sulla stampa/reviewers) ci sono riusciti ?

Pss. Il "peso che si sposta sulla cpu" in base alla risoluzione dipende molto anche dalla scheda video. In 2k con una bestia come la 6900xt (magari pure con oc, non so), non c'è da stupirsi che un seppur ottimo 5800x debba "impegnarsi molto" per stargli dietro ?
 
Ultima modifica:
  • Mi piace
Reazioni: pc_assembler

midgardian

Utente Attivo
592
104
CPU
AMD Ryzen 7 - 5800x
Dissipatore
ARCTIC Liquid Freezer II 360 A-RGB
Scheda Madre
MSI MAG B550 TOMAHAWK
HDD
Kingston SSD 480GB + SSD Sabrent M.2 1TB
RAM
Crucial Ballistix 3600MHz 32GB
GPU
RX 6900 XT
Audio
Intergrata
Monitor
MSI Optix MAG272CQR
PSU
FOCUS GX-850 Gold
Case
Corsair 5000D
OS
Windows 11
Ni.

Nel senso che entrambi partono da una risoluzione inferiore ma:
- il dlss in primo luogo utilizza informazioni che devono essere elaborate in precedenza dagli sviluppatori in server farm o cose simili perché richiedono parecchio sforzo computazionale.
in secondo luogo poi, se ricordo bene, utilizza anche frame precedenti a quello in elaborazione per riprodurre l'immagine (e questo è quello che porta ad effetti di simil-ghosting in alcuni casi)
- FSR invece è molto più immediato da implementare (a detta degli sviluppatori richiede pochissimo) ed anche più semplice nel funzionamento.
infatti è come un "semplice filtro". Lavora solo sul fotogramma in elaborazione e solo con le informazioni presenti in esso.

Il risultato in termini di prestazioni e qualità dell'immagine su FSR è inferiore alle risoluzioni più basse (dove ha anche meno senso usarlo..) e migliora già dal 2k in poi. In 4k la qualità è praticamente indistinguibile tra FSR e DLSS a meno di non mettersi a zoommare a 400% (cosa del tutto irrealistica).

FSR è una tecnologia free di AMD e probabilmente verrà integrata nelle console (non come opzione ma proprio nei titoli in automatico) avendo anche esse hw amd.
Per questo molto probabilmente la tecnologia che più prenderà piede sarà quella di AMD e il DLSS sarà una tecnologia premium proprietaria che nvidia cercherà di spremere economicamente il più possibile prima di abbandonarla.

Ps. Il DLSS è nato perché "faceva comodo" ad nvidia sfruttare quelle parti di die della sue schede progettate per scopi professionali che altrimenti in gaming sarebbero rimaste inutilizzate. In questo modo tra dlss e ray tracing possono vendere "l'intero die" o quasi anche ai gamers.
Produrre die più grandi del necessario è molto inefficiente economicamente parlando, ma lo è anche (molto di più probabilmente) progettare die diversi per gaming e scopi professionali. In quel modo hanno cercato di prendere due piccioni con una fava e probabilmente (con tonnellate di marketing e addirittura pressioni sulla stampa/reviewers) ci sono riusciti ?

Pss. Il "peso che si sposta sulla cpu" in base alla risoluzione dipende molto anche dalla scheda video. In 2k con una bestia come la 6900xt (magari pure con oc, non so), non c'è da stupirsi che un seppur ottimo 5800x debba "impegnarsi molto" per stargli dietro ?

PS. Devo chiedere consiglio proprio sull'overclock della mia scheda video quindi romperò pure lì xD

Grazie a tutti per l'aiuto
 
  • Mi piace
Reazioni: Avets

Beruvski

Utente Attivo
1,075
439
CPU
Ryzen 7 5800X
Dissipatore
Noctua NH-D15
Scheda Madre
ASUS ROG Strix X570-E
RAM
Crucial Ballistix 32 GB (4x8) / 3800 Mhz CL16
GPU
EVGA RTX 3070 Ti FTW3 Ultra
Monitor
LG UltraGear 27GN850 / 27” - 2K - 144 Hz
PSU
Seasonic Focus GX-850 - 80 Gold
Case
Cooler Master H500P Mesh - White
OS
Windows 10 Pro (64 bit)
- il dlss in primo luogo utilizza informazioni che devono essere elaborate in precedenza dagli sviluppatori in server farm o cose simili perché richiedono parecchio sforzo computazionale.
in secondo luogo poi, se ricordo bene, utilizza anche frame precedenti a quello in elaborazione per riprodurre l'immagine (e questo è quello che porta ad effetti di simil-ghosting in alcuni casi)
Verissimo, crea un ghosting abbastanza fastidioso. Motivo per cui il DLSS non lo uso quasi mai.

Un gioco come Control me lo sono giocato con tutto a palla (incluso il ray tracing), stavo sui 78/82 fps a 1440P (senza DLSS causa ghosting). Ma il 5800X non l’ho mai visto andare oltre il 40%.

P.s.
Ho fatto un paio di giri con Cinebench R23 in single core e ho avuto:

1) 1644 punti con temperatura CPU 55° (offset -0.0350 / CO -15 all cores. Max boost in game 4925 MHz.

2) 1592 punti con temperatura CPU 58° (offset -0.0350 / CO -5 (sui 2 cores migliori segnalati da Ryzen Master) e -15 (gli altri 6 cores). Max boost in game 4800 MHz.

Morale della favola: sono tornato col Curve Optimizer a -15 all cores e in più mantenendo sempre e comunque il VCore in offset negativo a -0.0350v.
 
Ultima modifica:
  • Mi piace
Reazioni: Avets

pc_assembler

Nuovo Utente
115
32
CPU
Intel 13600KF 5.1/3.9 @ 5.6x2-5.5/5.0/4.2
Dissipatore
Thermalright Phantom Spirit 120 SE
Scheda Madre
MSI Z690 Tomahawk
HDD
Hynix Platinum P41 2TB 7000/6500
RAM
Kingston FURY Renegade DR 32GB 3600 C16 @5020 C20 G2 1,5V
GPU
Gainward Phantom RTX 3080Ti 1725/19000 @1935/21500 0,89V
Monitor
Dell S2721DGFA 165Hz
PSU
DEEP COOL DQ 750W
Case
Antec DF700 Flux
OS
Win 11 64bit
Verissimo, crea un ghosting abbastanza fastidioso. Motivo per cui il DLSS non lo uso quasi mai.

Un gioco come Control me lo sono giocato con tutto a palla (incluso il ray tracing), stavo sui 78/82 fps a 1440P (senza DLSS causa ghosting). Ma il 5800X non l’ho mai visto andare oltre il 40%.

P.s.
Ho fatto un paio di giri con Cinebench R23 in single core e ho avuto:

1) 1644 punti con temperatura CPU 55° (offset -0.0350 / CO -15 all cores. Max boost in game 4925 MHz.

2) 1592 punti con temperatura CPU 58° (offset -0.0350 / CO -5 (sui 2 cores migliori segnalati da Ryzen Master) e -15 (gli altri 6 cores). Max boost in game 4800 MHz.

Morale della favola: sono tornato col Curve Optimizer a -15 all cores e in più mantenendo sempre e comunque il VCore in offset negativo a -0.0350v.
Io nei miei test ho visto in realtà il comportamento opposto. Il diminuire della tensione porta a una diminuzione di punteggio. a te succede l'opposto che aumentano la tensione, diminuisce la frequenza quindi il punteggio.
ci sta se il limite è la temperatura, non ci sta se il limite è di tensione

ogni cpu davvero fa storia a se
 

Beruvski

Utente Attivo
1,075
439
CPU
Ryzen 7 5800X
Dissipatore
Noctua NH-D15
Scheda Madre
ASUS ROG Strix X570-E
RAM
Crucial Ballistix 32 GB (4x8) / 3800 Mhz CL16
GPU
EVGA RTX 3070 Ti FTW3 Ultra
Monitor
LG UltraGear 27GN850 / 27” - 2K - 144 Hz
PSU
Seasonic Focus GX-850 - 80 Gold
Case
Cooler Master H500P Mesh - White
OS
Windows 10 Pro (64 bit)
Io nei miei test ho visto in realtà il comportamento opposto. Il diminuire della tensione porta a una diminuzione di punteggio. a te succede l'opposto che aumentano la tensione, diminuisce la frequenza quindi il punteggio.
ci sta se il limite è la temperatura, non ci sta se il limite è di tensione

ogni cpu davvero fa storia a se
Anche io sto pensando sia dovuto alla temperatura.
 

Avets

INTEL INSIDE
Utente Èlite
5,138
3,979
CPU
Ryzen 5800x
Dissipatore
Dark rock pro4
Scheda Madre
B550m Mortar
HDD
970evo 512Gb
RAM
4x8Gb Ballistix @3800Mhz 1,4v 15-17-17-36
GPU
Nitro+ 5500XT
Monitor
Itek UWQHD 41" + AOC 27G2U
PSU
Chieftec CNS-650C
Case
CUSTOM
OS
Windows 10 pro
Solitamente ridurre la tensione permette di consumare meno a parità di frequenza o di aumentare la frequenza a parità di consumo.
Siccome solitamente si è limitato da ppt o tdc (sempre consumi sono comunque), con l undervolt si aumentano le prestazioni.

Nel caso di pc assembler però, si è andati ben oltre il normale undervolt (se ricordo bene).
In quel caso la cpu, giudicando la frequenza eccessivamente bassa, limita anche la frequenza.
È un comportamento ben noto da zen 2 almeno (dove veniva chiamato "frequency stretch", più info ci sono sulla guida dei ryzen 3000).
 

pc_assembler

Nuovo Utente
115
32
CPU
Intel 13600KF 5.1/3.9 @ 5.6x2-5.5/5.0/4.2
Dissipatore
Thermalright Phantom Spirit 120 SE
Scheda Madre
MSI Z690 Tomahawk
HDD
Hynix Platinum P41 2TB 7000/6500
RAM
Kingston FURY Renegade DR 32GB 3600 C16 @5020 C20 G2 1,5V
GPU
Gainward Phantom RTX 3080Ti 1725/19000 @1935/21500 0,89V
Monitor
Dell S2721DGFA 165Hz
PSU
DEEP COOL DQ 750W
Case
Antec DF700 Flux
OS
Win 11 64bit
Solitamente ridurre la tensione permette di consumare meno a parità di frequenza o di aumentare la frequenza a parità di consumo.
Siccome solitamente si è limitato da ppt o tdc (sempre consumi sono comunque), con l undervolt si aumentano le prestazioni.

Nel caso di pc assembler però, si è andati ben oltre il normale undervolt (se ricordo bene).
In quel caso la cpu, giudicando la frequenza eccessivamente bassa, limita anche la frequenza.
È un comportamento ben noto da zen 2 almeno (dove veniva chiamato "frequency stretch", più info ci sono sulla guida dei ryzen 3000).
dai, sono stato anche conservativo, ho visto cpu sul tubo che sono all core 5GHz con 1,35V

Letta la guida pure di ryzen 3000, ci sta come funzionamento del pbo, ma allora mi viene il dubbio: perchè ti crasha/riavvia il pc?

In quel caso ci si spinge oltre la frequenza "corretta" in base alla tensione applicata e giustamente come conseguenza si ha un crash e invece nell'altro caso, la tensione applicata lo limita e non lo fa spingere oltre?
 

Avets

INTEL INSIDE
Utente Èlite
5,138
3,979
CPU
Ryzen 5800x
Dissipatore
Dark rock pro4
Scheda Madre
B550m Mortar
HDD
970evo 512Gb
RAM
4x8Gb Ballistix @3800Mhz 1,4v 15-17-17-36
GPU
Nitro+ 5500XT
Monitor
Itek UWQHD 41" + AOC 27G2U
PSU
Chieftec CNS-650C
Case
CUSTOM
OS
Windows 10 pro
dai, sono stato anche conservativo, ho visto cpu sul tubo che sono all core 5GHz con 1,35V
Vabbè youtube... 5Ghz 1,35v lo fanno gli Alder lake forse, ryzen non penso proprio e sicuramente non in maniera stabile.


In quel caso ci si spinge oltre la frequenza "corretta" in base alla tensione applicata e giustamente come conseguenza si ha un crash e invece nell'altro caso, la tensione applicata lo limita e non lo fa spingere oltre?
Se ho capito bene il dubbio, in un caso crasha perché non è stabile (tensione insufficiente per la frequenza), nell'altro caso invece è la cpu che pur essendo stabile (per estrema fortuna) la cpu "si rifiuta" di raggiungere certe frequenza a certe tensioni che giudica troppo basse (anche se magari non lo sarebbero, ripeto per estrema fortuna).
 

Beruvski

Utente Attivo
1,075
439
CPU
Ryzen 7 5800X
Dissipatore
Noctua NH-D15
Scheda Madre
ASUS ROG Strix X570-E
RAM
Crucial Ballistix 32 GB (4x8) / 3800 Mhz CL16
GPU
EVGA RTX 3070 Ti FTW3 Ultra
Monitor
LG UltraGear 27GN850 / 27” - 2K - 144 Hz
PSU
Seasonic Focus GX-850 - 80 Gold
Case
Cooler Master H500P Mesh - White
OS
Windows 10 Pro (64 bit)
dai, sono stato anche conservativo, ho visto cpu sul tubo che sono all core 5GHz con 1,35V
Il mio (parlando del 5800X) l’ho portato a 4.75 GHz all cores (per pura curiosità e una sola volta) e per renderlo stabile sono dovuto salire a 1.375v.

Pensa che i 4.8 GHz non li tiene manco a 1.425v. Poi vabbè il Noctua D15 mi ha chiesto perdono, però i 5 GHz all cores mi sembra quasi impossibile.

Come ti ha suggerito @Avets, lascia perdere il tubo. Il 99% dei video sono acchiappa like.
 
Ultima modifica:

razor820

Utente Attivo
879
197
CPU
i7-8700k 4,9
Dissipatore
Liquid custom 360x60 thermaltake d5 pacific
Scheda Madre
msi z370 carbon pro
HDD
crucial ssd 1tb + Samsung evo 850 500gb + wd m2 500gb + barracuda seagate 1tb
RAM
32 ddr4 3200mhz Corsair vengeange
GPU
rog strix rtx 2080
Audio
sound blaster x A5
Monitor
Acer predator xb271hu 2k ips
PSU
Corsair hx850i
Case
Thermaltake view 71TG
Periferiche
Cuffie Hyperx revolver s + Hyperx alloy fps + Logitech g502 + Asus ac86u
Net
Fibra 200 tim
OS
win10 64
Qualcuno che ha il 5900x ha provato a effettuare un undervolt tramite ccx0 e ccx1 impostando diverse frequenze? Alla fine il 90% dei giochi usa sempre quei 4 core.
Io usando il classico metodo di questi ryzen, -20 core normali -10 core silver e gold, sui giochi come warzone, 2 core mi fanno registrare 72 gradi in media- Figuriamoci se non avessi usato il co2.....

Per questo vorrei cambiare metodo.
Se qualcuno con il 5900x ha fatto qualche esperimento e vuole condividere.

Per adesso sto provando con ccx1 4,7ghz ccx2 4,5ghz a 1.35v
 

Beruvski

Utente Attivo
1,075
439
CPU
Ryzen 7 5800X
Dissipatore
Noctua NH-D15
Scheda Madre
ASUS ROG Strix X570-E
RAM
Crucial Ballistix 32 GB (4x8) / 3800 Mhz CL16
GPU
EVGA RTX 3070 Ti FTW3 Ultra
Monitor
LG UltraGear 27GN850 / 27” - 2K - 144 Hz
PSU
Seasonic Focus GX-850 - 80 Gold
Case
Cooler Master H500P Mesh - White
OS
Windows 10 Pro (64 bit)
Qualcuno che ha il 5900x ha provato a effettuare un undervolt tramite ccx0 e ccx1 impostando diverse frequenze? Alla fine il 90% dei giochi usa sempre quei 4 core.
Io usando il classico metodo di questi ryzen, -20 core normali -10 core silver e gold, sui giochi come warzone, 2 core mi fanno registrare 72 gradi in media- Figuriamoci se non avessi usato il co2.....

Per questo vorrei cambiare metodo.
Se qualcuno con il 5900x ha fatto qualche esperimento e vuole condividere.

Per adesso sto provando con ccx1 4,7ghz ccx2 4,5ghz a 1.35v
Che io sappia, @Max(IT) ha il 5900X, magari ti può dare una mano.
 

Max(IT)

Moderatore
Staff Forum
Utente Èlite
26,765
14,513
CPU
Intel i7 13900K
Dissipatore
Arctic Freezer II 360
Scheda Madre
Asus ROG Strix Z690-E Gaming WiFi
HDD
Samsung 970EVO + 970 EVO Plus + 870 SSD
RAM
Kingston Fury Renegade 6400 CL32 32 GB
GPU
PNY RTX 4080 XLR8 OC
Monitor
Asus TUF VG27AQ1A + Samsung 24RG50
PSU
EVGA G6 850W
Case
Corsair 5000D Airflow
OS
WIndows 11
Qualcuno che ha il 5900x ha provato a effettuare un undervolt tramite ccx0 e ccx1 impostando diverse frequenze? Alla fine il 90% dei giochi usa sempre quei 4 core.
Io usando il classico metodo di questi ryzen, -20 core normali -10 core silver e gold, sui giochi come warzone, 2 core mi fanno registrare 72 gradi in media- Figuriamoci se non avessi usato il co2.....

Per questo vorrei cambiare metodo.
Se qualcuno con il 5900x ha fatto qualche esperimento e vuole condividere.

Per adesso sto provando con ccx1 4,7ghz ccx2 4,5ghz a 1.35v
I giochi non usano affatto “sempre quei 4 core”. Per come è concepito, il carico tende ad essere distribuito a rotazione su diversi core, pur tenendo come “preferenziali” quelli migliori, quindi l’idea di usare voltaggi e frequenze fisse non mi pare brillantissima.

Ho passato il 5900X a mio figlio grande, raffreddato da un D15 dentro un Lian Li Lancool II Mesh:

PC Mirko 5900X.jpg

Ottengo 68/69° in Cinebench ed in game non vado sopra i 60°.
Il tutto in PBO, con cu tra -5 e -25 (scalando dai core migliori a quelli peggiori).
 
  • Mi piace
Reazioni: Avets

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili