- Messaggi
- 4,383
- Reazioni
- 1,477
- Punteggio
- 143
Dopo l'UVTime spy di 3dmark
--- i due messaggi sono stati uniti ---
Appena sono a casa te lo giro! Stock o dopo l'undervolt?
Segui il video qui sotto per vedere come installare il nostro sito come web app sulla tua schermata principale.
Nota: Questa funzionalità potrebbe non essere disponibile in alcuni browser.
Pubblicità
Dopo l'UVTime spy di 3dmark
--- i due messaggi sono stati uniti ---
Appena sono a casa te lo giro! Stock o dopo l'undervolt?
3dmarklo ho completo nn la demo... Ho fatto il bench che sempre faccio e nn lo stress test...consigli stresstest? Ma se gia da errore sul bench la vedo duracon la versione free di 3dmark, lo stresstest non riesci a farlo... vai di 20/30 minuti unigine heaven o valley al massimo.
dopo ogni modifica, vanno effettuati i test con timespy e per sicurezza un 20/30minuti di unigine heaven o valley al massimo, in modo per quei 20/30 minuti la scheda rimanga al 100%. questo per assicurarsi della stabilità dell'OC/UV.
se hai la versione a pagamento di 3dmark, vai con lo stresstest di timespy.
mi autoquoto, e aggiungo:il consiglio migliore che posso darti?
test a stock. segnati i punteggi.
- resetta a default e ricomincia.
resetta
frequenza core -200, applica.
editor di curva: pallino a 0.875v portato a 1920. applica.
test con TimeSpy. segnati i punteggi. ma sopratutto: controlla che la frequenza sia una linea piatta o quasi. Post 2183
Resetta
frequenza core -200, applica.
editor di curva: pallino successivo a 0.875v portato a 1920. applica.
test con TimeSpy. segnati i punteggi.
e così via. lavoro lungo? decisamente. Efficace? estremamente!
quando pensi di aver trovato la giusta Tensione/frequenza... 15/20min di unigine. se controllando i grafici di msi AB la frequenza non si muove o quasi... sei a posto. altrimenti? si torna al punto 1.
Allora stasera quando sono a casa faccio prima uno stresstest time spy con la acheda stock cosi lo tengo come esempio (visto che fino ad ora ho fatto solo bench)mi autoquoto, e aggiungo:
Edit:
na gran rottura di scatole? ad ogni aggiornamento driver o bios, bisogna ritestare il tutto.
No, non ti consiglio di aumentare il clock delle memorie. Ti consiglio di usare 0.900mv 1875mhz per essere sicuro al 99% di stare stabile in qualsiasi situazione. Io con la mia gpu pensavo di stare stabile con 0.900mv 1908mhz mentre poi su un gioco in particolare era molto instabile cosi ho deciso di impostare 0.900mv 1865mhz.Allora stasera quando sono a casa faccio prima uno stresstest time spy con la acheda stock cosi lo tengo come esempio (visto che fino ad ora ho fatto solo bench)
Poi mi consigli quindi di ripartite con 925mv e 1900mhz se ho capito bene giusto?
Cmq si il grafico era piu o meno come il tuo della foto!
Altta domanda consigli di aumentare anche il memory clock che ho visto nella tua foto settato a +500?
Grazie mille
no, la memoria si modifica solo ed esclusivamente a OC/UV assolutamente stabile. stai inserendo un'altra variabile!Allora stasera quando sono a casa faccio prima uno stresstest time spy con la acheda stock cosi lo tengo come esempio (visto che fino ad ora ho fatto solo bench)
Poi mi consigli quindi di ripartite con 925mv e 1900mhz se ho capito bene giusto?
Cmq si il grafico era piu o meno come il tuo della foto!
Altta domanda consigli di aumentare anche il memory clock che ho visto nella tua foto settato a +500?
Grazie mille
Allora la prima che provero sarà questa consigliata da te 0.900mv 1875mhz! Cosa cambierebbe tra 0.925mv 1900mhz? Chiedo da ignorante... Altra cosa come mai nn cosigli laumento del memory clock? Sempre per capire visto che anche su yt alcuni lo consigliano!No, non ti consiglio di aumentare il clock delle memorie. Ti consiglio di usare 0.900mv 1875mhz per essere sicuro al 99% di stare stabile in qualsiasi situazione. Io con la mia gpu pensavo di stare stabile con 0.900mv 1908mhz mentre poi su un gioco in particolare era molto instabile cosi ho deciso di impostare 0.900mv 1865mhz.
Perfetto discorso memorie preso e immagazzinato... Capito che di sicuro meglio un passo alla volta!no, la memoria si modifica solo ed esclusivamente a OC/UV assolutamente stabile. stai inserendo un'altra variabile!
solo con la stabilità, puoi provare a aumentare le memorie. ma le GDDR6X non ne han bisogno.
io partirei a 1900 @0.925v, 2 o 3 test di timespy di seguito per la stabilità.
o come ha scritto il buon @Dradkol, anche 0.9v ma a 1850. devi andare di tentativi. L'OC/UV non è una scienza esatta, ma trovare la giusta frequenza alla giusta tensione, con i giusti driver.
Letteralmente un "P"azzo! Non cambia niente, cosa vuoi che faccino 30mhz ? Già aumentando di 100Mhz si ottiene si e no 2/3 fps questo perché le gpu sono già tirate al massimo già di fabbrica. Il bottleneck non sono le frequenze ma la quantità di cuda, il bus delle memorie o il Bandwidth totale.Allora la prima che provero sarà questa consigliata da te 0.900mv 1875mhz! Cosa cambierebbe tra 0.925mv 1900mhz? Chiedo da ignorante... Altra cosa come mai nn cosigli laumento del memory clock? Sempre per capire visto che anche su yt alcuni lo consigliano!
Grazie mille
Infatti io neanche a piangere in cinese riesco a fargli superare i 2 GHz, non c'è verso (da quando l'ho liquidata mi sto dilettando a fare il numerello in 3dMark, in game non cambia una fava). Mi boosta per un attimo a 2010 MHz per tornare subito a 1995 e poi stabilizzarsi a 1980. Ovviamente richiede un po di tensione sto gioco, prima dell'ultimo aggiornamento driver ero stabile a 931 mV, adesso ho dovuto portare a 962 mV. Non è un gran undervolt ma tanto non supera mai i 45° sul core (52° hotspot e 56° vRam), stando spesso sotto i 40°.In realtà sull'architettura Ampere ci sarebbe da approfondire parecchio su questo argomento. La serie rtx 3000 ha un bottleneck dovuto dal processo produttivo Samsung a 8nm ( per modo di dire 8nm ).
Questo ha comportato un abbassamento delle frequenze drastiche pur di contenere i consumi e purtroppo la mole impressionante di cuda core che ha la serie Ampere non ne ha giovato affatto.
Infatti a basse risoluzioni ampere da il peggio di se ( sarebbe più corretto dire ad un basso/medio carico di lavoro piuttosto che risoluzione ), man mano che si aumenta il carico sulla gpu, spesso causato dall'incremento della risoluzione o settaggi grafici pesanti, si ha un incremento di utilizzo dell'architettura.
Come ho già fatto mille volte, come esempio prendo la rx 6600xt di amd che batte di circa un 10% la rtx 3060 in 1080p, ma se si passa a 1440p la rtx 3060 recupera il margine portandosi quasi alla pari della rx 6600xt, stesso discorso della rtx 3080 che è più lenta sia in 1080p che in 1440p rispetto alla rx 6900xt mentre in 4K la rtx 3080 recupera.
Infatti cosa ha fatto Nvidia con Ada Lovelace ( rtx 4000 ) ha utilizzato il processo produttivo a 4nm ma questa volta di TSMC ( assa fa a maronn ) e ha potuto spingere le frequenze arrivando quasi a 3GHz, inoltre ha diminuito a parità di fascia e prezzo rispetto ad Ampere ( guarda rtx 3070ti vs rtx 4070ti ) il numero di cuda core, questo per velocizzare l'architettura anche con bassi carichi di lavoro. Infatti Ada Lovelance non ha bottleneck dovuti all'architettura, ma ha come unico e solo bottleneck il suo dannato prezzo.
Detto questo, manco mi pagano per fare queste spiegazioni dettagliate.
Mi quoto da solo per aggiungere un piccolo dettaglio ma importante, in realtà Nvidia ha procurato volutamente del bottleneck nella sua serie di rtx 4000 andando a castrare il bus per la classe 80 e 70 ( sicuramente anche per 60 ).In realtà sull'architettura Ampere ci sarebbe da approfondire parecchio su questo argomento. La serie rtx 3000 ha un bottleneck dovuto dal processo produttivo Samsung a 8nm ( per modo di dire 8nm ).
Questo ha comportato un abbassamento delle frequenze drastiche pur di contenere i consumi e purtroppo la mole impressionante di cuda core che ha la serie Ampere non ne ha giovato affatto.
Infatti a basse risoluzioni ampere da il peggio di se ( sarebbe più corretto dire ad un basso/medio carico di lavoro piuttosto che risoluzione ), man mano che si aumenta il carico sulla gpu, spesso causato dall'incremento della risoluzione o settaggi grafici pesanti, si ha un incremento di utilizzo dell'architettura.
Come ho già fatto mille volte, utilizzerò come esempio questo qui, la rx 6600xt di amd batte di circa un 10% la rtx 3060 in 1080p, ma se si passa a 1440p la rtx 3060 recupera il margine portandosi quasi alla pari della rx 6600xt, stesso discorso della rtx 3080 che è più lenta sia in 1080p che in 1440p rispetto alla rx 6900xt mentre in 4K la rtx 3080 recupera.
Infatti cosa ha fatto Nvidia con Ada Lovelace ( rtx 4000 ) ha utilizzato il processo produttivo a 4nm ma questa volta di TSMC ( assa fa a maronn ) e ha potuto spingere le frequenze arrivando quasi a 3GHz, inoltre ha diminuito a parità di fascia e prezzo rispetto ad Ampere ( guarda rtx 3070ti vs rtx 4070ti ) il numero di cuda core, questo per velocizzare l'architettura anche con bassi carichi di lavoro. Infatti Ada Lovelance non ha bottleneck dovuti all'architettura, ma ha come unico e solo bottleneck il suo dannato prezzo.
Detto questo, manco mi pagano per fare queste spiegazioni dettagliate.
Bravo, infatti mi è venuto in mente il bus di memoria dopo aver scritto quel poema xDma infatti, già dalla 3060ti il fullhd sarebbe meglio evitarlo e andare sul qhd a medio-alto.
ho un amico che voleva prendere la 3070ti per usarla in FHD per giocare a minecraft.... la mia risposta: "fallo e ti vengo a prendere a casa! e non andiamo a fare un giro... e dopo che ti ho sistemato, visto che ti piace buttare il denaro... ti trovi casa vuota! uomo avvisato, mezzo-salvato!"
riuscivo a giocare a medio-alto con rt base attivo su CP2077 con una 3060 12GB intorno ai 40/50fps in qhd....
la 4070ti ha anche il problemino del bus di memoria... 192 mi paiono un tantinello pochini per una TI, fosse la 70liscia poteva anche starci.