GUIDA Undervolt RTX Ampere - ADA Lovelace

Pubblicità
con la versione free di 3dmark, lo stresstest non riesci a farlo... vai di 20/30 minuti unigine heaven o valley al massimo.
 
dopo ogni modifica, vanno effettuati i test con timespy e per sicurezza un 20/30minuti di unigine heaven o valley al massimo, in modo per quei 20/30 minuti la scheda rimanga al 100%. questo per assicurarsi della stabilità dell'OC/UV.

se hai la versione a pagamento di 3dmark, vai con lo stresstest di timespy.

il consiglio migliore che posso darti?
  1. resetta a default e ricomincia.
test a stock. segnati i punteggi.
resetta
frequenza core -200, applica.
editor di curva: pallino a 0.875v portato a 1920. applica.
test con TimeSpy. segnati i punteggi. ma sopratutto: controlla che la frequenza sia una linea piatta o quasi. Post 2183
Resetta
frequenza core -200, applica.
editor di curva: pallino successivo a 0.875v portato a 1920. applica.
test con TimeSpy. segnati i punteggi.

e così via. lavoro lungo? decisamente. Efficace? estremamente!

quando pensi di aver trovato la giusta Tensione/frequenza... 15/20min di unigine. se controllando i grafici di msi AB la frequenza non si muove o quasi... sei a posto. altrimenti? si torna al punto 1.

mi autoquoto, e aggiungo:
curva ab.png

Edit:
na gran rottura di scatole? ad ogni aggiornamento driver o bios, bisogna ritestare il tutto.
 
mi autoquoto, e aggiungo:

Edit:
na gran rottura di scatole? ad ogni aggiornamento driver o bios, bisogna ritestare il tutto.
Allora stasera quando sono a casa faccio prima uno stresstest time spy con la acheda stock cosi lo tengo come esempio (visto che fino ad ora ho fatto solo bench)
Poi mi consigli quindi di ripartite con 925mv e 1900mhz se ho capito bene giusto?
Cmq si il grafico era piu o meno come il tuo della foto!
Altta domanda consigli di aumentare anche il memory clock che ho visto nella tua foto settato a +500?
Grazie mille
 
Allora stasera quando sono a casa faccio prima uno stresstest time spy con la acheda stock cosi lo tengo come esempio (visto che fino ad ora ho fatto solo bench)
Poi mi consigli quindi di ripartite con 925mv e 1900mhz se ho capito bene giusto?
Cmq si il grafico era piu o meno come il tuo della foto!
Altta domanda consigli di aumentare anche il memory clock che ho visto nella tua foto settato a +500?
Grazie mille
No, non ti consiglio di aumentare il clock delle memorie. Ti consiglio di usare 0.900mv 1875mhz per essere sicuro al 99% di stare stabile in qualsiasi situazione. Io con la mia gpu pensavo di stare stabile con 0.900mv 1908mhz mentre poi su un gioco in particolare era molto instabile cosi ho deciso di impostare 0.900mv 1865mhz.
 
Allora stasera quando sono a casa faccio prima uno stresstest time spy con la acheda stock cosi lo tengo come esempio (visto che fino ad ora ho fatto solo bench)
Poi mi consigli quindi di ripartite con 925mv e 1900mhz se ho capito bene giusto?
Cmq si il grafico era piu o meno come il tuo della foto!
Altta domanda consigli di aumentare anche il memory clock che ho visto nella tua foto settato a +500?
Grazie mille
no, la memoria si modifica solo ed esclusivamente a OC/UV assolutamente stabile. stai inserendo un'altra variabile!
solo con la stabilità, puoi provare a aumentare le memorie. ma le GDDR6X non ne han bisogno.

io partirei a 1900 @0.925v, 2 o 3 test di timespy di seguito per la stabilità.

o come ha scritto il buon @Dradkol, anche 0.9v ma a 1850. devi andare di tentativi. L'OC/UV non è una scienza esatta, ma trovare la giusta frequenza alla giusta tensione, con i giusti driver.
 
No, non ti consiglio di aumentare il clock delle memorie. Ti consiglio di usare 0.900mv 1875mhz per essere sicuro al 99% di stare stabile in qualsiasi situazione. Io con la mia gpu pensavo di stare stabile con 0.900mv 1908mhz mentre poi su un gioco in particolare era molto instabile cosi ho deciso di impostare 0.900mv 1865mhz.
Allora la prima che provero sarà questa consigliata da te 0.900mv 1875mhz! Cosa cambierebbe tra 0.925mv 1900mhz? Chiedo da ignorante... Altra cosa come mai nn cosigli laumento del memory clock? Sempre per capire visto che anche su yt alcuni lo consigliano!
Grazie mille
--- i due messaggi sono stati uniti ---
no, la memoria si modifica solo ed esclusivamente a OC/UV assolutamente stabile. stai inserendo un'altra variabile!
solo con la stabilità, puoi provare a aumentare le memorie. ma le GDDR6X non ne han bisogno.

io partirei a 1900 @0.925v, 2 o 3 test di timespy di seguito per la stabilità.

o come ha scritto il buon @Dradkol, anche 0.9v ma a 1850. devi andare di tentativi. L'OC/UV non è una scienza esatta, ma trovare la giusta frequenza alla giusta tensione, con i giusti driver.
Perfetto discorso memorie preso e immagazzinato... Capito che di sicuro meglio un passo alla volta!
Si stasera faccio una prova con uno o con altro e vediamo! La differenza quale sarebbe per capire tra il tuo consiglio e quello si dradkol?
 
a pari frequenza, una tensione minore (Volt) riduce l'energia (Watt) e le temperature, ma aumenta la possibilità di instabilità.
a pari Tensione, una frequenza minore (mhz) riduce l'energia (Watt) e le temperature, ma aumenta anche la stabilità.

cosa che mi son dimenticato di chiedere: Resto dei componenti? monitor?
 
Allora la prima che provero sarà questa consigliata da te 0.900mv 1875mhz! Cosa cambierebbe tra 0.925mv 1900mhz? Chiedo da ignorante... Altra cosa come mai nn cosigli laumento del memory clock? Sempre per capire visto che anche su yt alcuni lo consigliano!
Grazie mille
Letteralmente un "P"azzo! Non cambia niente, cosa vuoi che faccino 30mhz ? Già aumentando di 100Mhz si ottiene si e no 2/3 fps questo perché le gpu sono già tirate al massimo già di fabbrica. Il bottleneck non sono le frequenze ma la quantità di cuda, il bus delle memorie o il Bandwidth totale.
L'unica cosa smart che si può fare sulle rtx 3000 è abbassare il voltaggio e di conseguenza temperature/consumi.

Ti faccio un esempio, la mia rtx 3080 12GB su 3dmark time spy mi dava 17.500punti a stock arrivando a consumare 370/380watt 62 gradi.
Con l'undervolt mi fa 17.450 punti ma consumando 250/280watt in base al carico, 56 gradi-
Vedi te se per 50/80 miseri punti di un benchmark sintetico devo consumare 100watt in più e incrementare l'usura sulla mia gpu.
In game la differenza tra prima e dopo e di 1 massimo 2 fps.
 
Ultima modifica:
aggiungo:
spesso con l'undervolt si riescono a raggiungere prestazioni superiori, a stock la mia gpu mi arriva a 240W e circa 13400 p.ti. con frequenze parecchio ballerine dai 1820 ai 1980mhz.

con UV a 0.881v @1930mhz? 13700p.ti e frequenze fisse a 1920-1935mhz. con 180/190w di consumo.

Edit:
e dai 5 ai 7 gradi in meno!
 
In realtà sull'architettura Ampere ci sarebbe da approfondire parecchio su questo argomento. La serie rtx 3000 ha un bottleneck dovuto dal processo produttivo Samsung a 8nm ( per modo di dire 8nm ).
Questo ha comportato un abbassamento delle frequenze drastiche pur di contenere i consumi e purtroppo la mole impressionante di cuda core che ha la serie Ampere non ne ha giovato affatto.
Infatti a basse risoluzioni ampere da il peggio di se ( sarebbe più corretto dire ad un basso/medio carico di lavoro piuttosto che risoluzione ), man mano che si aumenta il carico sulla gpu, spesso causato dall'incremento della risoluzione o settaggi grafici pesanti, si ha un incremento di utilizzo dell'architettura.
Come ho già fatto mille volte, utilizzerò come esempio questo qui, la rx 6600xt di amd batte di circa un 10% la rtx 3060 in 1080p, ma se si passa a 1440p la rtx 3060 recupera il margine portandosi quasi alla pari della rx 6600xt, stesso discorso della rtx 3080 che è più lenta sia in 1080p che in 1440p rispetto alla rx 6900xt mentre in 4K la rtx 3080 recupera.
Infatti cosa ha fatto Nvidia con Ada Lovelace ( rtx 4000 ) ha utilizzato il processo produttivo a 4nm ma questa volta di TSMC ( assa fa a maronn ) e ha potuto spingere le frequenze arrivando quasi a 3GHz, inoltre ha diminuito a parità di fascia e prezzo rispetto ad Ampere ( guarda rtx 3070ti vs rtx 4070ti ) il numero di cuda core, questo per velocizzare l'architettura anche con bassi carichi di lavoro. Infatti Ada Lovelance non ha bottleneck dovuti all'architettura, ma ha come unico e solo bottleneck il suo dannato prezzo.

Detto questo, manco mi pagano per fare queste spiegazioni dettagliate. 🤣
 
Ultima modifica:
In realtà sull'architettura Ampere ci sarebbe da approfondire parecchio su questo argomento. La serie rtx 3000 ha un bottleneck dovuto dal processo produttivo Samsung a 8nm ( per modo di dire 8nm ).
Questo ha comportato un abbassamento delle frequenze drastiche pur di contenere i consumi e purtroppo la mole impressionante di cuda core che ha la serie Ampere non ne ha giovato affatto.
Infatti a basse risoluzioni ampere da il peggio di se ( sarebbe più corretto dire ad un basso/medio carico di lavoro piuttosto che risoluzione ), man mano che si aumenta il carico sulla gpu, spesso causato dall'incremento della risoluzione o settaggi grafici pesanti, si ha un incremento di utilizzo dell'architettura.
Come ho già fatto mille volte, come esempio prendo la rx 6600xt di amd che batte di circa un 10% la rtx 3060 in 1080p, ma se si passa a 1440p la rtx 3060 recupera il margine portandosi quasi alla pari della rx 6600xt, stesso discorso della rtx 3080 che è più lenta sia in 1080p che in 1440p rispetto alla rx 6900xt mentre in 4K la rtx 3080 recupera.
Infatti cosa ha fatto Nvidia con Ada Lovelace ( rtx 4000 ) ha utilizzato il processo produttivo a 4nm ma questa volta di TSMC ( assa fa a maronn ) e ha potuto spingere le frequenze arrivando quasi a 3GHz, inoltre ha diminuito a parità di fascia e prezzo rispetto ad Ampere ( guarda rtx 3070ti vs rtx 4070ti ) il numero di cuda core, questo per velocizzare l'architettura anche con bassi carichi di lavoro. Infatti Ada Lovelance non ha bottleneck dovuti all'architettura, ma ha come unico e solo bottleneck il suo dannato prezzo.

Detto questo, manco mi pagano per fare queste spiegazioni dettagliate. 🤣
Infatti io neanche a piangere in cinese riesco a fargli superare i 2 GHz, non c'è verso (da quando l'ho liquidata mi sto dilettando a fare il numerello in 3dMark😁, in game non cambia una fava). Mi boosta per un attimo a 2010 MHz per tornare subito a 1995 e poi stabilizzarsi a 1980. Ovviamente richiede un po di tensione sto gioco, prima dell'ultimo aggiornamento driver ero stabile a 931 mV, adesso ho dovuto portare a 962 mV. Non è un gran undervolt ma tanto non supera mai i 45° sul core (52° hotspot e 56° vRam), stando spesso sotto i 40°.
Detto ciò, consiglio a chi le ha ad aria a tenere un bel 900-925 mV con 1900 MHz di frequenza (o dintorni), che in gioco non cambia un fico secco.
 
ma infatti, già dalla 3060ti il fullhd sarebbe meglio evitarlo e andare sul qhd a medio-alto.
ho un amico che voleva prendere la 3070ti per usarla in FHD per giocare a minecraft.... la mia risposta: "fallo e ti vengo a prendere a casa! e non andiamo a fare un giro... e dopo che ti ho sistemato, visto che ti piace buttare il denaro... ti trovi casa vuota! uomo avvisato, mezzo-salvato!"

riuscivo a giocare a medio-alto con rt base attivo su CP2077 con una 3060 12GB intorno ai 40/50fps in qhd....

la 4070ti ha anche il problemino del bus di memoria... 192 mi paiono un tantinello pochini per una TI, fosse la 70liscia poteva anche starci.
 
In realtà sull'architettura Ampere ci sarebbe da approfondire parecchio su questo argomento. La serie rtx 3000 ha un bottleneck dovuto dal processo produttivo Samsung a 8nm ( per modo di dire 8nm ).
Questo ha comportato un abbassamento delle frequenze drastiche pur di contenere i consumi e purtroppo la mole impressionante di cuda core che ha la serie Ampere non ne ha giovato affatto.
Infatti a basse risoluzioni ampere da il peggio di se ( sarebbe più corretto dire ad un basso/medio carico di lavoro piuttosto che risoluzione ), man mano che si aumenta il carico sulla gpu, spesso causato dall'incremento della risoluzione o settaggi grafici pesanti, si ha un incremento di utilizzo dell'architettura.
Come ho già fatto mille volte, utilizzerò come esempio questo qui, la rx 6600xt di amd batte di circa un 10% la rtx 3060 in 1080p, ma se si passa a 1440p la rtx 3060 recupera il margine portandosi quasi alla pari della rx 6600xt, stesso discorso della rtx 3080 che è più lenta sia in 1080p che in 1440p rispetto alla rx 6900xt mentre in 4K la rtx 3080 recupera.
Infatti cosa ha fatto Nvidia con Ada Lovelace ( rtx 4000 ) ha utilizzato il processo produttivo a 4nm ma questa volta di TSMC ( assa fa a maronn ) e ha potuto spingere le frequenze arrivando quasi a 3GHz, inoltre ha diminuito a parità di fascia e prezzo rispetto ad Ampere ( guarda rtx 3070ti vs rtx 4070ti ) il numero di cuda core, questo per velocizzare l'architettura anche con bassi carichi di lavoro. Infatti Ada Lovelance non ha bottleneck dovuti all'architettura, ma ha come unico e solo bottleneck il suo dannato prezzo.

Detto questo, manco mi pagano per fare queste spiegazioni dettagliate. 🤣
Mi quoto da solo per aggiungere un piccolo dettaglio ma importante, in realtà Nvidia ha procurato volutamente del bottleneck nella sua serie di rtx 4000 andando a castrare il bus per la classe 80 e 70 ( sicuramente anche per 60 ).
--- i due messaggi sono stati uniti ---
ma infatti, già dalla 3060ti il fullhd sarebbe meglio evitarlo e andare sul qhd a medio-alto.
ho un amico che voleva prendere la 3070ti per usarla in FHD per giocare a minecraft.... la mia risposta: "fallo e ti vengo a prendere a casa! e non andiamo a fare un giro... e dopo che ti ho sistemato, visto che ti piace buttare il denaro... ti trovi casa vuota! uomo avvisato, mezzo-salvato!"

riuscivo a giocare a medio-alto con rt base attivo su CP2077 con una 3060 12GB intorno ai 40/50fps in qhd....

la 4070ti ha anche il problemino del bus di memoria... 192 mi paiono un tantinello pochini per una TI, fosse la 70liscia poteva anche starci.
Bravo, infatti mi è venuto in mente il bus di memoria dopo aver scritto quel poema xD
 
Pubblicità
Pubblicità
Indietro
Top