RISOLTO Possibile bottleneck R7 3700x??

Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.

Impased

Nuovo Utente
Messaggi
121
Reazioni
16
Punteggio
38
Salve ragazzi, qualche anno fa mi feci fare un pc da un ragazzo che possiede un negozio di informatica e montava una gtx 1660 super ed un r7 3700x. Presi il monitor dell'asus, precisamente il vg279q1a.
A novembre ho deciso di aggiornare il mio pc prendendo una rtx 3070ti. Il tizio mi disse che non c'erano problemi, potevo montarla tranquillamente ed io da ignorante in materia non dissi niente.
Il pc in se per se funziona bene, l'unica cosa che non riesco a capire sono dei microstuttering fastidiosissimi su fortnite. Lo so che il gioco è mal ottimizzato e tutto ma il problema è che mi stuttera con qualsiasi impostazione, dalla più bassa (dx 11 compreso) alla più alta.
Le caratteristiche del pc sono le seguenti (alcuni componenti li ho cambiati da poco, tipo l'ssd e la ram):
Scheda madre : Asus B550M-K
CPU : R7 3700X
GPU: RTX 3070 TI ASUS ROG STRIX
RAM: 2x32 Hyperx Fury 3200 mhz ddr4 cl16
Dissipatore : MasterLiquid ML 120L v2 RGB
SSD 1TB p3 Crucial
PSU: Cooler Master MWE 700 White 230V V2
Monitor ASUS TUF Gaming VG279Q1A FullHD 165Hz

Parlo di bottleneck perchè mostrando il problema ad un mio amico sono usciti fuori questi dati usando msi afterburner :
 

Allegati

  • photo_2023-03-08_17-18-12.webp
    photo_2023-03-08_17-18-12.webp
    189.6 KB · Visualizzazioni: 42
Si è bottleneck. Stai utilizzando una gpu più potente di una rtx 2080ti ( di un 10% ) in 1080p e già questo è sbagliato, poi ci abbini un ryzen 3000 e la frittata e fatta.
Guarda senza cambiare cpu, ti basta prendere un bel monitor 27°, 2560x1440p, 165/180hz, 1ms, ips, compatibile con g-sync cosi da eliminare quasi del tutto il bottleneck.
Ti posto anche un mio vecchio commento dove spiego perché non conviene usare le rtx 3000, soprattutto dalla rtx 3070 in su a basse risoluzioni:
"Ampere è un architettura che ha dei pro e contro come qualsiasi altra architettura. Tra i contro di questa architettura vi è un problema dovuto al grosso numero di cuda core che queste gpu montano.
Infatti il salto tra turing e ampere nella conta dei cuda core è stato mostruoso, più del doppio.
Questo però cosa comporta ? Comporta che l'architettura si "auto/strozza", mi spiego meglio.
Una rtx 3080 che ha 8704 cuda core non riuscirà mai a sfruttare tutti quei core con un carico cosi leggero come può essere un videogame in 1080p. La mole di dati che deve elaborare la gpu è talmente poca che spesso più della metà dei cuda letteralmente dormono. Per riuscire a sfruttare una rtx 3080 in 1080p al 100% servirebbe un gioco di ultima generazione sparato al massimo, un monitor da 360hz e una cpu mostruosa di fascia enthusiast con un altissimo ipc che riesce a stare dietro ad una rtx 3080 con quel alto refresh rate e forse in questo caso estremo si riesce a sfruttarla.
Questo problema di Ampere lo si può notare anche con una semplice rtx 3060 dove in 1080p prende le mazzate dalla rx 6600xt ma non appena si passa al 1440p, il gap tra le due si riduce al minimo, questo per lo stesso motivo speigato precedentemente, cioè che la grande mole di cuda core della serie rtx 3000 vengono sfruttati in pieno al aumentare della risoluzione ( cioè del carico di lavoro )."

 
Si è bottleneck. Stai utilizzando una gpu più potente di una rtx 2080ti ( di un 10% ) in 1080p e già questo è sbagliato, poi ci abbini un ryzen 3000 e la frittata e fatta.
Guarda senza cambiare cpu, ti basta prendere un bel monitor 27°, 2560x1440p, 165/180hz, 1ms, ips, compatibile con g-sync cosi da eliminare quasi del tutto il bottleneck.
Ti posto anche un mio vecchio commento dove spiego perché non conviene usare le rtx 3000, soprattutto dalla rtx 3070 in su a basse risoluzioni:
"Ampere è un architettura che ha dei pro e contro come qualsiasi altra architettura. Tra i contro di questa architettura vi è un problema dovuto al grosso numero di cuda core che queste gpu montano.
Infatti il salto tra turing e ampere nella conta dei cuda core è stato mostruoso, più del doppio.
Questo però cosa comporta ? Comporta che l'architettura si "auto/strozza", mi spiego meglio.
Una rtx 3080 che ha 8704 cuda core non riuscirà mai a sfruttare tutti quei core con un carico cosi leggero come può essere un videogame in 1080p. La mole di dati che deve elaborare la gpu è talmente poca che spesso più della metà dei cuda letteralmente dormono. Per riuscire a sfruttare una rtx 3080 in 1080p al 100% servirebbe un gioco di ultima generazione sparato al massimo, un monitor da 360hz e una cpu mostruosa di fascia enthusiast con un altissimo ipc che riesce a stare dietro ad una rtx 3080 con quel alto refresh rate e forse in questo caso estremo si riesce a sfruttarla.
Questo problema di Ampere lo si può notare anche con una semplice rtx 3060 dove in 1080p prende le mazzate dalla rx 6600xt ma non appena si passa al 1440p, il gap tra le due si riduce al minimo, questo per lo stesso motivo speigato precedentemente, cioè che la grande mole di cuda core della serie rtx 3000 vengono sfruttati in pieno al aumentare della risoluzione ( cioè del carico di lavoro )."

Grazie della risposta, oltre a questo mi avevano consigliato di prendere il r7 5800x3d, il monitor già lo ho e mi dispiacerebbe renderlo inutilizzabile e prenderne un altro, secondo te con quel processore potrei risolvere questo bottleneck?
 
No, ti consiglio di leggere cosa ti ho scritto tra virgolette. Li spiego benissimo il bottleneck che l'architettura ampere si procura da sola con bassi carichi di lavoro.
La cosa più intelligente da fare e cambiare monitor, poiché con il ryzen 7 5800x avrai sicuramente un incremento dell'utilizzo della gpu ma non aspettarti di risolverlo del tutto, lo risolvi solo aumentando il carico sulla gpu e questo lo puoi fare con un incremento della risoluzione.

Ti do un consiglio per il futuro, La build deve essere pensata in base al monitor che si ha e non il contrario.
 
No, ti consiglio di leggere cosa ti ho scritto tra virgolette. Li spiego benissimo il bottleneck che l'architettura ampere si procura da sola con bassi carichi di lavoro.
La cosa più intelligente da fare e cambiare monitor, poiché con il ryzen 7 5800x avrai sicuramente un incremento dell'utilizzo della gpu ma non aspettarti di risolverlo del tutto, lo risolvi solo aumentando il carico sulla gpu e questo lo puoi fare con un incremento della risoluzione.

Ti do un consiglio per il futuro, La build deve essere pensata in base al monitor che si ha e non il contrario.
Capito, ultima cosa.. mettendo la dsr a 2k dalle impostazioni nvidia e di conseguenza mettendo la risoluzione 2k su fortnite il problema persiste, è normale? Non dovrebbe "risolversi" dato che simula la risoluzione voluta?? (Scusami per queste domande ma le faccio in quanto non ne capisco nulla)
 
Capito, ultima cosa.. mettendo la dsr a 2k dalle impostazioni nvidia e di conseguenza mettendo la risoluzione 2k su fortnite il problema persiste, è normale? Non dovrebbe "risolversi" dato che simula la risoluzione voluta?? (Scusami per queste domande ma le faccio in quanto non ne capisco nulla)
Devi darmi più dettagli, hai il dlss o fsr attivato ? Che impostazioni grafiche utilizzi ?
 
Devi darmi più dettagli, hai il dlss o fsr attivato ? Che impostazioni grafiche utilizzi ?
Nessuno dei due. Le impostazioni sono ad epiche senza la geometria nanite attiva, quindi lumen e nanite disattivate e ray tracing off.
Faccio sui 144 fps fissi.
Tramite il pannello di controllo di nvidia si può attivare la dsr e posso impostare la risoluzione 2k in game (penso simulata) ma non cambia nulla con le prestazioni.
 
Nessuno dei due. Le impostazioni sono ad epiche senza la geometria nanite attiva, quindi lumen e nanite disattivate e ray tracing off.
Faccio sui 144 fps fissi.
Tramite il pannello di controllo di nvidia si può attivare la dsr e posso impostare la risoluzione 2k in game (penso simulata) ma non cambia nulla con le prestazioni.
Ma in gioco hai selezionato 2560x1440p ? Perché non basta mettere la spunta nel pannello di controllo di nvidia, devi anche applicare in game la risoluzione.
 
Si è bottleneck e pure bello marcato. Ovvio, non puoi abbinare un 3700x ad una 3070ti pur giocando in qhd. Il 3700x è una cpu vecchia che già a suo tempo non brillava per il gaming. Si, prendi il 5800x3d! Ovviamente devi cambiare anche quello scempio di dissipatore, è il peggiore in assoluto, credimi, perde il liquido quello! Cambialo prima di subito. Ma prima di suggerirti qualcosa bisogna sapere che case hai
 
Si è bottleneck e pure bello marcato. Ovvio, non puoi abbinare un 3700x ad una 3070ti pur giocando in qhd. Il 3700x è una cpu vecchia che già a suo tempo non brillava per il gaming. Si, prendi il 5800x3d! Ovviamente devi cambiare anche quello scempio di dissipatore, è il peggiore in assoluto, credimi, perde il liquido quello! Cambialo prima di subito. Ma prima di suggerirti qualcosa bisogna sapere che case hai
Sono d'accordo ma in QHD il bottleneck è molto meno grave, sempre presente ma può tirare avanti ancora per un po prima dovrebbe cambiare il monitor, infatti il primo fattore di bottleneck in quella build è il monitor. Non si può abbinare un 1080p ad una rtx 3070ti, non si può!
 
Si è bottleneck e pure bello marcato. Ovvio, non puoi abbinare un 3700x ad una 3070ti pur giocando in qhd. Il 3700x è una cpu vecchia che già a suo tempo non brillava per il gaming. Si, prendi il 5800x3d! Ovviamente devi cambiare anche quello scempio di dissipatore, è il peggiore in assoluto, credimi, perde il liquido quello! Cambialo prima di subito. Ma prima di suggerirti qualcosa bisogna sapere che case hai
Allora procederò così, cambio cpu e dissipatore, dopo di che vado di monitor. Con il r7 5800x3d e la 3070ti posso tirare in full hd fino a novembre che prendo il nuovo monitor?
--- i due messaggi sono stati uniti ---
Ah e se possibile, un buon dissipatore da poter mettere.. il case è https://extremebit.it/case-cooler-m...gb-atx-con-3-ventole-a-rgb-4719512095171.html
 
Sono d'accordo ma in QHD il bottleneck è molto meno grave, sempre presente ma può tirare avanti ancora per un po prima dovrebbe cambiare il monitor, infatti il primo fattore di bottleneck in quella build è il monitor. Non si può abbinare un 1080p ad una rtx 3070ti, non si può!
È assurdo 🤦‍♂️

Allora procederò così, cambio cpu e dissipatore, dopo di che vado di monitor. Con il r7 5800x3d e la 3070ti posso tirare in full hd fino a novembre che prendo il nuovo monitor?
Io francamente, PRIMA di tutto cambierei 5800x3d e dissipatore, per i motivi detti prima. Non puoi in ogni caso abbinare tale cpu ad un dissipatore del genere, pur essendo stato di buona qualità non sarebbe bastato, è troppo piccolo. Quindi rimando alla domanda già fatta al mio post precedente. Puoi rispondere?

Per la tua domanda, si puoi tirare col monitor, ma fintanto che tu non lo cambierai, la gpu non lavorerà mai come dovrebbe, non la sfrutterai mai a dovere. Io ho una 3070ti, quindi so di cosa parlo ;)
 
È assurdo 🤦‍♂️


Io francamente, PRIMA di tutto cambierei 5800x3d e dissipatore, per i motivi detti prima. Non puoi in ogni caso abbinare tale cpu ad un dissipatore del genere, pur essendo stato di buona qualità non sarebbe bastato, è troppo piccolo. Quindi rimando alla domanda già fatta al mio post precedente. Puoi rispondere?

Per la tua domanda, si puoi tirare col monitor, ma fintanto che tu non lo cambierai, la gpu non lavorerà mai come dovrebbe, non la sfrutterai mai a dovere. Io ho una 3070ti, quindi so di cosa parlo ;)
Capito, però una domanda da ignorante, in giochi tipo rdr2, gow, hogworts legacy non mi da tanti problemi, anzi... solo su fortnite mi rompe le balle. Comunque si cambia risoluzione anche in game.(sempre se era quella la domanda a cui ti riferivi)
--- i due messaggi sono stati uniti ---
Cambiando processore e dissipatore questo problema dovrei risolverlo? anche se alla fine dovrò comunque cambiare monitor, anche perché la scheda grafica non la sfrutterò mai a dovere
 
Ultima modifica:
Capito, però una domanda da ignorante, in giochi tipo rdr2, gow, hogworts legacy non mi da tanti problemi, anzi... solo su fortnite mi rompe le balle. Comunque si cambia risoluzione anche in game.(sempre se era quella la domanda a cui ti riferivi)
--- i due messaggi sono stati uniti ---
Cambiando processore e dissipatore questo problema dovrei risolverlo? anche se alla fine dovrò comunque cambiare monitor, anche perché la scheda grafica non la sfrutterò mai a dovere
Ma ci riesci a dirmi che case hai?

Se vuoi che ti diamo una mano devi rispondere alle domande che ti facciamo, altrimenti diventa impossibile
 
Mb520. L'ha postato su.

Ma se poi passa al qhd non sarebbe meglio risparmiare ed invece del 5800x3d prendere il 5600x?
Circa il 50%, investe su monitor e dissipatore.

Comunque è stata messa su una build abbastanza squilibrata nel complesso.

Io proverei con il 3700x in qhd, prima. + dissipatore.
Ammesso decida per questa risoluzione.

Edit
In qhd 3700x - 5600x siamo più o meno li e limi quasi del tutto il bottleneck. Quindi inutile cambiare, rimani con 3700x!!
In Fhd il 5800x3d sarebbe ideale.
 
Ultima modifica:
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top