UFFICIALE GTX 1080-1070: il debutto di Pascal

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
Rifaccio la domanda, da cosa dipende il boost 3.0, perché in alcune schede sale di più e in altre meno?

Inviato dal mio P8 Lite utilizzando Tapatalk
 
Su bf1 sto a 64 gradi ventole 54-55% una favola..cioè è piu`calda la cpu a 4.8ghz che la gpu:asd:

considerando che qui sono ancora nella morsa del caldo

non vedo l'ora arrivi il freddo, sto sotto i 60 in scioltezza:asd:
 
Frequenza base, temperatura, voltaggio, limite di potenza.
Siccome la mia vecchia 1070 Zotac Amp raggiungeva temperature molto più alte della nuova G1, eppure boostava meglio, arrivava più in alto, parlo di 76/77° contro i 65/66° della G1, eppure questa boosta meno.

Inviato dal mio P8 Lite utilizzando Tapatalk
 
Su bf1 sto a 64 gradi ventole 54-55% una favola..cioè è piu`calda la cpu a 4.8ghz che la gpu:asd:

considerando che qui sono ancora nella morsa del caldo

non vedo l'ora arrivi il freddo, sto sotto i 60 in scioltezza:asd:
Io in B1 sto a massimo 60/62°, ma questo perche la vga non la sfrutto al 100%, il processore mi limita:(

Inviato dal mio P8 Lite utilizzando Tapatalk
 
Siccome la mia vecchia 1070 Zotac Amp raggiungeva temperature molto più alte della nuova G1, eppure boostava meglio, arrivava più in alto, parlo di 76/77° contro i 65/66° della G1, eppure questa boosta meno.

Inviato dal mio P8 Lite utilizzando Tapatalk

La prima cosa che mi viene in mente è che avendo un solo connettore ad 8 pin contro i 2 della Zotac incorri prima nel limite di potenza?
 
Rifaccio la domanda, da cosa dipende il boost 3.0, perché in alcune schede sale di più e in altre meno?

Inviato dal mio P8 Lite utilizzando Tapatalk

oltre quelle che ti hanno citato lui guarda anche all'ASIC, alla qualità della scheda.
con la versione 3.0 guarda tanti altri valori tanto che è impossibile capirlo per noi non ingegneri nvidia ;)
 
oltre quelle che ti hanno citato lui guarda anche all'ASIC, alla qualità della scheda.
con la versione 3.0 guarda tanti altri valori tanto che è impossibile capirlo per noi non ingegneri nvidia ;)
Ma l'ASIC al momento gpu z non lo da, se non ricordo male.

Inviato dal mio P8 Lite utilizzando Tapatalk
 
Ma l'ASIC al momento gpu z non lo da, se non ricordo male.

Inviato dal mio P8 Lite utilizzando Tapatalk

e secondo te usa gpu-z by nvidia per saperne l'asic? :asd:
quello è solo uno strumento, PER NOI.

ma la qualità del silicio è stampata su ogni chip, d'altronde è utile per capirne la qualità. Tutti lo usano, anche intel ma non puoi leggerlo da nessuna parte. Ne vedi i benefici (uno è un chip bloccato e ad alte frequenze consuma come un dannato, chip di emme - l'altro lo usano per la versione K) ma non puoi saperlo.

;)
 
Pubblicità
Pubblicità
Indietro
Top