pc_assembler
Nuovo Utente
- 115
- 32
- CPU
- Intel 13600KF 5.1/3.9 @ 5.6x2-5.5/5.0/4.2
- Dissipatore
- Thermalright Phantom Spirit 120 SE
- Scheda Madre
- MSI Z690 Tomahawk
- HDD
- Hynix Platinum P41 2TB 7000/6500
- RAM
- Kingston FURY Renegade DR 32GB 3600 C16 @5020 C20 G2 1,5V
- GPU
- Gainward Phantom RTX 3080Ti 1725/19000 @1935/21500 0,89V
- Monitor
- Dell S2721DGFA 165Hz
- PSU
- DEEP COOL DQ 750W
- Case
- Antec DF700 Flux
- OS
- Win 11 64bit
occhio, è quello che ha fregato me e motivo per cui ho dovuto aggiornare il 3600Alla faccia dell’utilizzo. ?
Che poi in 1440p il carico di lavoro dovrebbe incidere maggiormente sulla scheda grafica, non sul processore.
Con nvidia (ma il funzionamento è lo stesso con le rosse) attivando il DLSS anche solo su qualità la risoluzione "vera" diventa inferiore a una 1080p.
Che il dlss non lo abbiano tutti i giochi è vero, ma in death stranding, per intenderci, senza dlss ho avuto 4/5 fps passando dal 3600 al 5800x, mentre con DLSS attivo usavo la 3070 al 75% e son passato da 130fps a 165 (limitato dal monitor).
è un esempio e ne sono conscio, ma dlss e simili saranno il futuro e dove si può aiutano tantissimo (riduzione consumi e calore a parte)
Questo in 2K, in 4K è ancora più imperativo usre il DLSS e i vantaggi sono ancora maggiori. Poi dipende ovviamente, se uno preferisce risoluzione massima (4K) o alto frame (2K), ma in entrambi i casi la dinamica è la stessa
Comunque penso di aver trovato la quadra finale:
+150MHz
-37mV
-28 -25 -30...
Ho perso leggermente in multicore, probabile i maggiori consumi incontrino prima il limite di corrente, ma almeno i core arrivano (e non solo in single) a 5GHz che mi sembra un ottimo risultato. avere un 8core a 5GHz con 70W credo vada bene come bilanciamento