PROBLEMA "The Pascal Problem"

Pubblicità

SuperZ83

Nuovo Utente
Messaggi
108
Reazioni
47
Punteggio
41
Ciao a tutti,

Non so se si è già discusso sul forum di questo strano comportamento delle nvidia con core Pascal, metto il link di un video di due mesi fa in cui un overclocker ne parla in modo esauriente:

Penso che se avete provato ad overclockare una scheda video Pascal modificando le curve di tensione ve ne sarete accorti, io ho avuto subito risultati moooolto strani che per un po' di tempo mi hanno lasciato parecchi grattacapi! :D

Volevo sapere se qualcuno di voi è a conoscenza di qualche software che sia in grado di monitorare il vero clock di funzionamento del chip e/o l'eventuale porzione di chip che viene disattivata ai vari voltaggi.
Non so bene ancora che cosa devo cercare, guardando un po' nei forum in lingua inglese non ho trovato niente, non so se non esiste o se non cerco le parole giuste. :boh:
 
secondo me non esiste. i software di monitoraggio migliori sono sempre gli stessi e si contano sulle dita di una mano.
se con quelli va male, non ci sono alternative imho. ;)
 
E' solo una moda per screditare nvidia, io ho provato la vga in tutte le condizioni pure downvoltando tramite control +v e le performance sono sempre medisime l'unica cosa che cala è la temperatura logicamente XD
 
E' solo una moda per screditare nvidia, io ho provato la vga in tutte le condizioni pure downvoltando tramite control +v e le performance sono sempre medisime l'unica cosa che cala è la temperatura logicamente XD
già confermo anche io , si riescono a fare overclock interessanti, poi diminuendo i voltaggi si ottiene un equilibrio perfetto (stesso discorso vale pure per le cpu che si settano in auto vcore pazzeschi)
 
secondo me non esiste. i software di monitoraggio migliori sono sempre gli stessi e si contano sulle dita di una mano. se con quelli va male, non ci sono alternative imho. ;)

Mi sa che hai ragione, se ci fosse il modo afterburner, precision o almeno gpuz lo avrebbero già implementato... :(
Magari ci stanno lavorando.

E' solo una moda per screditare nvidia, io ho provato la vga in tutte le condizioni pure downvoltando tramite control +v e le performance sono sempre medisime l'unica cosa che cala è la temperatura logicamente XD

Strano, Io invece mi ci sono imbattuto subito appena ho provato a overclockare la mia 1060.
Io non lo vedo un discredito, probabilmente hanno inserito all'interno del chip qualche sistema di controllo che downclocka o disabilita parti del core quando rileva una tensione non sufficiente, mi sembra una cosa in più mica in meno, magari qualcuno di voi aveva già investigato sulla questione e si poteva fare qualche elucubrazione.

Io mi sono fatto l'idea che il monitoraggio e la gestione dinamica della tensione, della potenza, della frequenza e della temperatura che hanno implementato con Maxwell e migliorato su Pascal fa in modo di evitare crash anche se il chip viene spinto in zone instabili limitando alcuni parametri (non facendoli risultare ai software di monitoraggio però) al contempo impedendo alla scheda di lavorare troppo fuori specifica.
Questo rende il tutto un po' troppo nebuloso... avere un controllo dei parametri, modificarli manualmente, verificare il comportamento sui grafici è fondamentale per trovare i limiti di funzionamento.

Non dico di tornare ai tempi dei vecchi thunderbird che li potevi bruciare con due click ma neanche mettere paletti invisibili ovunque! :D
 
Mi sa che hai ragione, se ci fosse il modo afterburner, precision o almeno gpuz lo avrebbero già implementato... :(
Magari ci stanno lavorando.



Strano, Io invece mi ci sono imbattuto subito appena ho provato a overclockare la mia 1060.
Io non lo vedo un discredito, probabilmente hanno inserito all'interno del chip qualche sistema di controllo che downclocka o disabilita parti del core quando rileva una tensione non sufficiente, mi sembra una cosa in più mica in meno, magari qualcuno di voi aveva già investigato sulla questione e si poteva fare qualche elucubrazione.

Io mi sono fatto l'idea che il monitoraggio e la gestione dinamica della tensione, della potenza, della frequenza e della temperatura che hanno implementato con Maxwell e migliorato su Pascal fa in modo di evitare crash anche se il chip viene spinto in zone instabili limitando alcuni parametri (non facendoli risultare ai software di monitoraggio però) al contempo impedendo alla scheda di lavorare troppo fuori specifica.
Questo rende il tutto un po' troppo nebuloso... avere un controllo dei parametri, modificarli manualmente, verificare il comportamento sui grafici è fondamentale per trovare i limiti di funzionamento.

Non dico di tornare ai tempi dei vecchi thunderbird che li potevi bruciare con due click ma neanche mettere paletti invisibili ovunque! :D
Forse ci staranno lavorando ma non credo....
Comunque una modalità che downclocca le GPU PASCAL è il BOOST 3.0 che agisce sulle frequenze tagliandole quando si arriva a vari step di temperatura.
 
Del GPU Boost 3.0 mi sono interessato, ho letto le recensioni e visto i video dove ne spiegavano il funzionamento ancora quando hanno presentato Pascal. Gli interventi che mette in atto GPUBoost in funzione della temperatura sono stati illustrati chiaramente e li ho anche verificati in chiaro con i software di monitoraggio.

Quello in cui sono incappato io è un calo delle prestazioni strano che non ha un'evidenza palese nei software di monitoraggio, ottengo FPS non coerenti alla frequenza che il software afferma stia andando la scheda video... :boh:
Probabilmente oltre che alle modalità che ci hanno illustrato e che possiamo verificare il GPUBoost 3.0 ha anche altre frecce al suo arco e non tutte sono state palesate, del resto NVidia sta spendendo molto in ricerca per ottenere il massimo dell'efficienza, delle prestazioni e della stabilità.

Non penso di essere ancora stato chiaro, magari oggi o domani vedo se riesco a postare un paio di screen.
Grazie che ti interessi, magari viene fuori una discussione interessate :ok:
 
Del GPU Boost 3.0 mi sono interessato, ho letto le recensioni e visto i video dove ne spiegavano il funzionamento ancora quando hanno presentato Pascal. Gli interventi che mette in atto GPUBoost in funzione della temperatura sono stati illustrati chiaramente e li ho anche verificati in chiaro con i software di monitoraggio.

Quello in cui sono incappato io è un calo delle prestazioni strano che non ha un'evidenza palese nei software di monitoraggio, ottengo FPS non coerenti alla frequenza che il software afferma stia andando la scheda video... :boh:
Probabilmente oltre che alle modalità che ci hanno illustrato e che possiamo verificare il GPUBoost 3.0 ha anche altre frecce al suo arco e non tutte sono state palesate, del resto NVidia sta spendendo molto in ricerca per ottenere il massimo dell'efficienza, delle prestazioni e della stabilità.

Non penso di essere ancora stato chiaro, magari oggi o domani vedo se riesco a postare un paio di screen.
Grazie che ti interessi, magari viene fuori una discussione interessate :ok:
Si in effetti, sarebbe mooolto interessante, soprattutto se riesci ad accompagnare il 3d con degli screenshot :ok:
 
Allora ecco un paio di screen per vedere quello in cui mi sono incappato

Intanto un giro a default per vedere da dove parto:
Default_1.webp
Default_2.webp
Quindi la mia gtx 1060 boosta a 1594MHz*0,831V e qualche salto a 1620MHz*0,843V totale 3DMark: 11028 di graphics score.

Allora mi sono detto vediamo quanto riesco a salire di frequenza mettendo la tensione minima possibile sulla curva, ovvero 0,800V
1600 li tiene :ok:
1650 li tiene ancora :D
1700 funziona :skept:
1750 può ancora salire :lol:
1800 tranquillamente :+1:

morale 1835MHz*0,800V!!!! :rock:

Ellamadonna ho una scheda video nel portatile con i controcazzi, tombola nella silicon lottery, Thunderstruck a palla!!!
Faccio il test
1835 800_1.webp
1835 800_2.webp
10655 di graphics score :boh:

Che dite, qualcuno ha voglia di verificarlo? Sono sfigato io?
Leggendo nei forum inglesi sembra che sia riscontrabile solo nelle 1050,1060 e 1070; le 1080 non lo presentano.
 
Allora ecco un paio di screen per vedere quello in cui mi sono incappato

Intanto un giro a default per vedere da dove parto:
Quindi la mia gtx 1060 boosta a 1594MHz*0,831V e qualche salto a 1620MHz*0,843V totale 3DMark: 11028 di graphics score.

Allora mi sono detto vediamo quanto riesco a salire di frequenza mettendo la tensione minima possibile sulla curva, ovvero 0,800V
1600 li tiene :ok:
1650 li tiene ancora :D
1700 funziona :skept:
1750 può ancora salire :lol:
1800 tranquillamente :+1:

morale 1835MHz*0,800V!!!! :rock:

Ellamadonna ho una scheda video nel portatile con i controcazzi, tombola nella silicon lottery, Thunderstruck a palla!!!
Faccio il test
10655 di graphics score :boh:

Che dite, qualcuno ha voglia di verificarlo? Sono sfigato io?
Leggendo nei forum inglesi sembra che sia riscontrabile solo nelle 1050,1060 e 1070; le 1080 non lo presentano.
Mi sembra alquanto strano.
Avere più frequenza sui core e fare meno punti......
sembra come se la CPU faccia da collo ma si tratta comunque di un i7...
 
Non vedo attivi e al massimo temp limit e Power limit, in quel caso anche sparando frequenza al massimo avrai dei tagli, risulti stabile, ma non boosta alla frequenza da te impostata, prova in game perché il grafico frequenza è troppo ballerino per via anche dei gambi di test. In game dovresti avere un grafico frequenza più lineare meglio se è un bench game cosi da verificare pure con gli FPS.

Inviato da MotoG3 tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
In realtà l'utente ha selezionato sui grafici la frequenza di boost che ha durante il grapichs test. Sembra che nel primo boosti appunto più basso, mentre nel secondo sia più alto. Anche se ci fossero dei cali di frequenza, comunque la Scheda boosta più alta nel Secondo caso, quindi è improbabile avere un punteggio minore.
È brutto dirlo ma A mio parere la CPU sta facendo un po' bottleneck, altrimenti non spiega nemmeno il punteggio più basso sullo physics score.
 
Il grafichs score influisce soprattutto sulla GPU ma serve sempre e comunque l'ausilio della CPU.
Anche se il test è mirato unicamente sulla GPU, è la CPU che deve processare e stare al passo della GPU.
Difatti, quando la maggior parte delle volte si hanno cali di punteggio sul graphics score, è dovuto alla CPU che tappa
 
Pubblicità
Pubblicità
Indietro
Top