UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Mi spiego meglio perchè è un pò complicato (e potrei prendere una cantonata quindi prendetelo col beneficio del dubbio). Nei profili preimpostati di WattMan chi comanda la scheda è principalmente il Power Limit ed in secondo luogo la temperatura: la frequenza della scheda si regola ogni secondo per stare dietro alla tensione massima preimpostata propria di quel profilo. Ecco allora che ad esempio nel profilo Balanced la frequenza spazia da X a Y per rispettare quel limite di assorbimento energetico ed in seconda battuta la temperatura preimpostata di limite (ma tanto non serve perchè difficilmente ci arriva a questa temperatura). Impostando un profilo custom oltre al Power Limit c'è da tenere in considerazione molto di più la temperatura: impostando una frequenza alta sullo stato 7 ed alzando il PL a piacimento, la frequenza della scheda rimane variabile cercando di rimanere all'interno del PL e della temperatura massima consentita. E' difficile trovare i limiti minimi di tensione quando per esempio si mette 1592Mhz sullo stato 7 e la scheda ogni secondo segna, per esempio, 1552Mhz, 1577, 1537, 1551 eccetera eccetera perchè deve stare dietro o all'assorbimento o alla temperatura o a tutti e due.
 
Mi spiego meglio perchè è un pò complicato (e potrei prendere una cantonata quindi prendetelo col beneficio del dubbio). Nei profili preimpostati di WattMan chi comanda la scheda è principalmente il Power Limit ed in secondo luogo la temperatura: la frequenza della scheda si regola ogni secondo per stare dietro alla tensione massima preimpostata propria di quel profilo. Ecco allora che ad esempio nel profilo Balanced la frequenza spazia da X a Y per rispettare quel limite di assorbimento energetico ed in seconda battuta la temperatura preimpostata di limite (ma tanto non serve perchè difficilmente ci arriva a questa temperatura). Impostando un profilo custom oltre al Power Limit c'è da tenere in considerazione molto di più la temperatura: impostando una frequenza alta sullo stato 7 ed alzando il PL a piacimento, la frequenza della scheda rimane variabile cercando di rimanere all'interno del PL e della temperatura massima consentita. E' difficile trovare i limiti minimi di tensione quando per esempio si mette 1592Mhz sullo stato 7 e la scheda ogni secondo segna, per esempio, 1552Mhz, 1577, 1537, 1551 eccetera eccetera perchè deve stare dietro o all'assorbimento o alla temperatura o a tutti e due.
Hai provato a usare l'ultima beta di afterburner per vedere se si riesce a gestire meglio la scheda?
 
Mi spiego meglio perchè è un pò complicato (e potrei prendere una cantonata quindi prendetelo col beneficio del dubbio). Nei profili preimpostati di WattMan chi comanda la scheda è principalmente il Power Limit ed in secondo luogo la temperatura: la frequenza della scheda si regola ogni secondo per stare dietro alla tensione massima preimpostata propria di quel profilo. Ecco allora che ad esempio nel profilo Balanced la frequenza spazia da X a Y per rispettare quel limite di assorbimento energetico ed in seconda battuta la temperatura preimpostata di limite (ma tanto non serve perchè difficilmente ci arriva a questa temperatura). Impostando un profilo custom oltre al Power Limit c'è da tenere in considerazione molto di più la temperatura: impostando una frequenza alta sullo stato 7 ed alzando il PL a piacimento, la frequenza della scheda rimane variabile cercando di rimanere all'interno del PL e della temperatura massima consentita. E' difficile trovare i limiti minimi di tensione quando per esempio si mette 1592Mhz sullo stato 7 e la scheda ogni secondo segna, per esempio, 1552Mhz, 1577, 1537, 1551 eccetera eccetera perchè deve stare dietro o all'assorbimento o alla temperatura o a tutti e due.

probabilmente impiegano una mappa 3D.
non ti voglio confondere, ma cercherò di sipegarmi al meglio:
in queste schede (come in altri chip) vengono considerate diverse variabili: potenza assorbita (e limite imposto), temperatura (e limite imposto), voltaggio (con regolazione sul limite superiore) frequenze e dissipazione attiva (ventole).
andare a regolare la singola variabile in rapporto ad un'altra diventa un discorso concorrenziale e di difficile applicazione, perchè uno potrebbe contrastare l'effetto dell'altro, quando la scheda è in funzione e questi parametri variano dinamicamente.
il punto è uno solo: di andare a regolare il calore generato (indipendentemente dalla temperatura) rispetto alla dissipazione (essenzialmente solo la velocità delle ventole) per aumentare le prestazioni, ossia la frequenza.
il calore generato ha 3 variabili: voltaggio ed assorbimento, ma quest'ultimo dipende anche dalla temperatura del chip;
la dissipazione ha 3 variabili: portata d'aria (ossia velocità della ventola), temperatura del chip e temperatura dell'aria di raffreddamento.
sulla temperatura dell'aria di raffreddamento non so se facciano una determinazione o la considerino fissa, in modo da basare la funzione "potere dissipante" solo su temperatura target e velocità ventole (ma sarebbe preferibile.. quasi perfetto).
il calore generato invece è funzione di voltaggio ed assorbimento, che a sua volta è funzione di costante di resistività ad una determinata temperatura e all'impedenza).
se regoli indipendentemente calore generato e potere di dissipazione in rapporto alla maggiore frequenza da ottenere hai già un diagramma a 3 variabili, ossia 3D.
un campo operativo, un volume in cui poter muovere la curva invece che farlo sul classico 2D cartesiano.
fissata una dimensione, devi regolare le altre due, in dipendenza e concorrenza, perchè hanno una variabile (la temperatura del chip) in comune che se aumenta incrementa il calore generato e diminuisce la dissipazione.
se l'intervento è molto incisivo e veloce (poca latenza), vedi oscillare all'impazzata il valore.
conviene perciò usare una mappa 3D, ossia per determinata temperatura del chip avere un certo voltaggio e una certa ventilazione con l'incremento della frequenza che possa poi portarti al massimo che le due variabili consentono.
la mappa 3D non è altro che una serie di mappature bidimensionali, in cui hai una mappa per ogni step della variabile che ritieni piu' idonea nel mantenere fissa;
in questo caso la temperatura...
le mapper 3D si usano spesso sulle centraline delle automobili (e spesso con variabile fissa diversa a seconda dell'impostazione generale: ad esempio un setting "sport" vedrà come variabile fissa la temperatura (del motore e atmosferica), mentre una "economy" quanto schiacci il pedale dell'accelleratore).

mappando i diagrammi in 2D è come se facessi a fettine sovrapposte il campo 3D, e salterai perpetuamente da una mappa all'altra a seconda del cambiamento della variabile di riferimento (nel nostro caso al variare della temperatura).

i limiti del campo (i confini della nostra "bolla d'intervento") sono dovuti al calore generale e alla dissipazione entrambi in rapporto alla temperatura, mentre i limiti dei singoli layer del campo dipendono dal voltaggio (impedenza diventa fissa, in quanto varia per la temperatura, ma il variare di questa ti fa saltare su un'altra mappa) e dal variare della velocità della ventola (perchè la dissipazione dipende sia dal variare della portata, ma anche dalla differenza che hai tra temperatura del chip e temperatura dell'aria di raffreddamento; al variare della temperatura del chip salti nuovamente mappa).
incrociando queste due variabii sai la distanza dalla curva limite e sai quanto puoi aumentare, in quel momento, la frequenza.
facendolo sai comunque che aumenterai la temperatura, ma provvederai usando un'altra mappa di quella propria temperatura.
a questo punto puoi fare una "bolla" sul punto dell'intercepta, anche questa campo applicativo e nello specifico della variabile funzione, che ti indica i possibili salti che avverranno sui layer della temperatura, e quindi ti suggeriscono quale possa essere sia l'incremento di frequenza piu' idoneo, sia il salto piu' idoneo (perchè se aumenti la frequenza devi poi regolare anche il voltaggio).

capire come funziona non è banale, ma ti suggerisce una cosa:
se hanno usato un layer di mappe è probabile che monitorizzino anche le temperature dell'aria di raffreddamento, o meglio la temperatura di uscita, che risultera sicuramente piu' stabile ed accurata, da cui puoi derivare (visto che conosci la temperatura del chip e la capacità di dissipazione del sistema) la temperatura dell'aria di raffreddamento.
puoi percio' cercare di bloccare delle variabili, per capire come gestire.
la frequenza non è possibile tenerla fissa.
le ventole, mandandole a manetta?
nemmeno il voltaggio ti viene in aiuto... cambia sempre.
il controllo della temperatura dell'aria in entrata, cercando almeno di non farla riscaldare ma fornirgliela sempre alla stessa temperatura?

oppure puoi fare un lavoro inverso, ossia cercare di usare, a regime, sempre la stessa mappa; significa cercare di mantenere fissa la temperatura.
o ti metti al limite impostabile (magari puoi intervenire diminuendo la temperatura target e cercando di mantenere quella), o raffreddando meglio (temperatura aria di raffreddamento variabile mi sembra eccessivo, meglio aumento di portata).

non è un gioco semplice... ottimizzare per il tuo specifico esemplare ti porterà via un sacco di tempo (e il tutto verrà vanificato appena la T ambientale cambierà).

PS:
m'hanno bannato dalle news di disqus su tomshw... :/
che avro' mai scritto?
 
Ultima modifica:
http://wccftech.com/nvidia-geforce-gtx-1070-ti-pascal-rumor/
si rumoreggia di una 1070Ti, anche se a me vien piu' da pensare ad una nuova gamma 1100, aspettando la 2000 con Volta.

Non ne capisco il senso, dove si posizionerebbe nel mercato? Conoscendo nvidia però potrebbe anche farla uscire giusto per mettersi un gradino sopra vega 56 che è la diretta rivale di 1070!

Già le 1080 11gbps a mio parere sono state abbastanza nosense, giusto per allungare la minestra, adesso questa.. bah
 
Eccola...
62c7821c56f499851eb3b617321f4ff9.jpg


Inviato dal mio SM-G935F utilizzando Tapatalk
 
Imho fake grande una casa. Ha troppi shaders quasi da 1080

le 1070 per portatili possono essere vendute sia con 1920 che con 2048 cuda core.
cambiano le frequenze operative e viene fatto per migliorare il rendimento facendole consumare meno (non c'e' piu' una distinzione tra portatile e desktop, se non i parametri "consigliati").
nelle 1070 "mobile" il boost clock sta a 1635 (+/-10% a discrezione del produttore), ma possono benissimo clockare a velocità piu' alta, anche se la mappa di settaggio è diversa dalle desktop.

la differenza marcata ed importante tra la "mobile" da 2048 e la semplice desktop da 1920 è dovuta principalmente all'implementazione di base, pur rimanendo sullo stesso chip:
le desktop da 1920 usano solo 3 GPC su 4 del GP104, quindi tagliano, di fatto, un'intero GPC, che racciude in se sia gli SM (i sottogruppi da 128 cuda core), sia l'engine grafico).
usare 2048 cuda core significa adottare tutti e 4 i GPC, disabilitando solo parte degli SM; in GP104 si hanno 5 SM da 128 per ogni GPC che porta il conteggio a 20; la 1080 li abilita tutti mentre la 1070 desktop li abilita tutti e 5 su singolo GPC ma elimina uno di questi, portando il conteggio a 15 SM.
la 1070 "mobile" da 2048 disabilita invece un solo SM per ogni GPC, portando il conteggio a 16.
questo porta ad usare 4 engine grafici completi, e non solo 3.
diminuisce il carico per singolo engine, in quanto gestisce solo 4 SM invece che 5;
uniforma il "tenore termico", in quanto il chip lavora su quasi tutta la superficie e non localizzato su 3/4 di questo;
le maggiori risorse date da 2048 cuda invece che 1920, il 6.66% in piu', possono permettere frequenze inferiori per bilanciare le stesse prestazioni, del 6.66% in meno, ed anche se pascal ha una buona linearità nel rapporto frequenza/consumo, sicuramente diminuire il massimo del 6-7% permette di stare in una zona della curva con minor pendenza;
la risposta sul software è "in linea" con l'implementazione piu' usata sui giochi, soprattutto dx11... usi 4 (o 8 se DX11.3) thread, hai 4 GPC su cui sistemare le risorse, senza dover sovraccaricare una di queste.

prendiamo in esame questo confronto:
in effetti sarebbe molto meglio guardare il comportamento su un i5 e non un i7, perchè l'uso dell'HT offusca effettivamente l'indice di utilizzo dei singoli core fisici

piccola nota: faccio presente che l'HT non è solo un core logico, ma l'occupazione che viene mostrata (la %) è riparametrata rispetto a quante risorse rimangono disponibili in relazione all'uso del suo "gemello" logico sullo stesso core fisico... se uso uno dei due core logici al 50%, all'altro rimangono solo il 50% di risorse computazionali, e se mi indica 100% sto usando, in assoluto, la stessa potenza computazionale del gemello logico sullo stesso core fisico, ossia 50% in assoluto, quindi 50+50=100% d'uso del core fisico; se uso il 50% anche su questo sto in effetti usando il 50% del 50% (0.5x0.5=0.25), quindi il 25% assoluto e quindi 50%+25%=75% del core fisico.
se devo capire il reale uso dovrò prima riconoscere le coppie gemelle e quindi sommare una al valore assoluto dell'altro.
se si usasse un i5 non si riscontrerebbe questa "alterazione" dei dati mostrati sull'occupazione del singolo core logico.
altra piccola nota: la frequenza della GTX 1080, in questa sequenza, è leggermente piu' alta, ma l'uso dell'occupazione della scheda non è mai allo stesso livello della 1070.
questo è dovuto essenzialmente al fatto che le specifiche risorse del processore che vengono sfruttate da questo gioco sono saturate con l'uso della 1080 e limitano la potenza espressa dalla scheda.
la 1080 risulta cosi' decurtata, considerando anche la differenza della frequenza, di un 10% circa ed allo stesso valore l'occupazione totale della CPU che risulta del +23% superiore (e la % totale di occupazione della CPU è quella effettiva di tutto il processore), a fronte, pero' di un aumento di risorse del 33% (da 1920 a 2560 cuda), quindi con un 10% in meno di CPU, insomma...
altra nota: le prestazioni generali sono generalmente guidate dal megathread grafico... puoi suddividere in 100 sottothread, ma se è il mega thread ad essere limitato dalla CPU, le prestazioni si rifaranno allo sfruttamento della CPU di questo specifico thread; quando pero' hai pochi core ed il gioco è stato concepito per tanti sottothread i core usati da questi possono saturarsi e saranno i sottothread a limitare le prestazioni.
succede quando non si bilanciano bene i carichi...
generalmente è piu' difficile dividere in sottothread grafici che riuscire a limitare il peso computazionale del megathread, ma ci sono esempi di giochi in cui sono proprio i sottothread a limitare se si hanno a disposizione pochi core sulla CPU (ROTR, ad esempio, dopo la patch dx12 ha limitato il megathread del 7% circa, ma se non hai piu' di 6 core fisici le prestazioni sono assai limitate).

detto questo, e parametrizzando per la decurtazione prestazionale che si ha in questo specifico setting, su questo specifico gioco sulla 1080 (l'overclock della CPU sulla 1080 avrebbe compensato), si nota che l'uso della 1070 implica una dinastia di thread che si puo' concentrare in 6 sottothread grafici piu' un megathread, mentre la 1080 usa un megathread e 8 sottothread grafici; ogni GPC riesce a gestire, quindi, 2 thread; 6 per la 1070, 8 per la 1080...

riprendiamo l'inizio e vediamo che l'uso di 2048 cudacore, e quindi l'uso di 4 GPC, garantirebbe anche sulla 1070 8 thread.
prestazionalmente, sul video ad esempio che ho portato, non cambierebbe nulla, se non un uso piu' bilanciato dei singoli core logici (ma non l'occupazione totale);
le cose sarebbero pero' diverse qualora non hai processori ad elevata frequenza.
se confronto un'ipotetica 1070 da 1920 ed una da 2048 su una CPU 4+4 che ha una frequenza che non limita la 1920, che in effetti sfrutta solo 3/4 della sua architettura, non avro problemi a spalmare il carico su tutti gli 8 core; se invece uso una CPU 4+4 (o 8 e superiore) che viene saturata dall'uso della 2048, perchè il suo megathread e i sottothread occuopano totalmente le specifiche risorse della CPU, sulla 1920 avro problemi di sovrasaturazione, quindi andrà meno, per il semplice fatto che usero' 6 thread singolarmente piu' pesanti invece che spalmare il computo su 8.
in questo caso ho thread mediamente piu' pesanti del 33% e se prima un thread occupava per intero le risorse di un core, in questo caso la risorsa mi limiterà in tale parametro le prestazioni (che poi verranno spalmate sul carico totale, facendomi perdere quel 33% su 6 thread, ossia il 5-10% a seconda se lo spike di richiesta prestazionale avviene solo su un thread alla volta o su piu' thread).

quindi, in finale, va uguale se non hai colli, ma se hai CPU meno performanti va meglio...
è principalmente questo il motivo per cui la 1070 "mobile" ha questa implementazione; le CPU dei portatili non garantiscono elevate frequenzee numero di core, quindi frazionare maggiormente il carico aiuta parecchio.
domani, che si avranno gli i3 serie 8000 quadcore, ma si, ma limitati nel boost e il non K nel clock, ed oggi con i Ryzen 5 quadcore, avere la 2048 sarebbe meglio.

logicamente questo si accentua in DX12, ma dipende da gioco a gioco, da PC a PC...
credo che aggiustare quell'implementazione sia anche migliorativo per quanto riguarda le rese (meglio un solo SM a GPC che un intero GPC, perchè se ho 2 SM poco performanti sul GP104, per farla diventare una buona 1070 dovrebbero stare nello stesso GPC... cosi' hai piu' "smadonnamenti" di configurazione bios (devi disabilitare piu' cose in mezzo al chip, non una sola, quindi un controllo qualitativo maggiore), ma anche una maggiore longevità della scheda, che sfrutta meglio i processori multicore...

poi intervengono molte altre cose:
se la fanno a 2048 l'abbassano di frequenza e TDP base, perchè 4 GPC con 4 SM a testa, in overclock raggiungerebbe le prestazioni di molte 1080 di adesso...
o migliorano conseguentemente anche la 1080 (ma in quel caso solo sulle frequenze e power limit massimo), o, piu' intelligentemente, la fanno piu' efficente strozzando il TDP e il margine di guadagno.
 
Ultima modifica:
@lucusta
Grazie della lauta spiegazione :sisi: insomma dovevano farla sin dal'inizio così, evitavano tutti quelli con 770/970 al seguito che han cambiato per questa e si sono trovati problemi (con i5 locked si intende).
Per Nvidia però era controproducente visto che in OC avrebbe potuto raggiungere la sorellona.
Almeno questa volta non hanno tagliato il discorso memoria veloce e lenta come sulla 970 e 660ti, del resto la x70 è sempre un compromesso


edit: per il discorso core logici e utilizzo non lo sapevo. Sto cercando di ragionare quindi chiedo.
Ti posto questo grafico portandoti all'attenzione il 6700.
Questo significa che è carico?
Cattura1.webp

Se dici 50+50% dovrebbe esserlo
 
Ultima modifica:
probabilmente impiegano una mappa 3D.
non ti voglio confondere, ma cercherò di sipegarmi al meglio:
in queste schede (come in altri chip) vengono considerate diverse variabili: potenza assorbita (e limite imposto), temperatura (e limite imposto), voltaggio (con regolazione sul limite superiore) frequenze e dissipazione attiva (ventole).
andare a regolare la singola variabile in rapporto ad un'altra diventa un discorso concorrenziale e di difficile applicazione, perchè uno potrebbe contrastare l'effetto dell'altro, quando la scheda è in funzione e questi parametri variano dinamicamente.
il punto è uno solo: di andare a regolare il calore generato (indipendentemente dalla temperatura) rispetto alla dissipazione (essenzialmente solo la velocità delle ventole) per aumentare le prestazioni, ossia la frequenza.
il calore generato ha 3 variabili: voltaggio ed assorbimento, ma quest'ultimo dipende anche dalla temperatura del chip;
la dissipazione ha 3 variabili: portata d'aria (ossia velocità della ventola), temperatura del chip e temperatura dell'aria di raffreddamento.
sulla temperatura dell'aria di raffreddamento non so se facciano una determinazione o la considerino fissa, in modo da basare la funzione "potere dissipante" solo su temperatura target e velocità ventole (ma sarebbe preferibile.. quasi perfetto).
il calore generato invece è funzione di voltaggio ed assorbimento, che a sua volta è funzione di costante di resistività ad una determinata temperatura e all'impedenza).
se regoli indipendentemente calore generato e potere di dissipazione in rapporto alla maggiore frequenza da ottenere hai già un diagramma a 3 variabili, ossia 3D.
un campo operativo, un volume in cui poter muovere la curva invece che farlo sul classico 2D cartesiano.
fissata una dimensione, devi regolare le altre due, in dipendenza e concorrenza, perchè hanno una variabile (la temperatura del chip) in comune che se aumenta incrementa il calore generato e diminuisce la dissipazione.
se l'intervento è molto incisivo e veloce (poca latenza), vedi oscillare all'impazzata il valore.
conviene perciò usare una mappa 3D, ossia per determinata temperatura del chip avere un certo voltaggio e una certa ventilazione con l'incremento della frequenza che possa poi portarti al massimo che le due variabili consentono.
la mappa 3D non è altro che una serie di mappature bidimensionali, in cui hai una mappa per ogni step della variabile che ritieni piu' idonea nel mantenere fissa;
in questo caso la temperatura...
le mapper 3D si usano spesso sulle centraline delle automobili (e spesso con variabile fissa diversa a seconda dell'impostazione generale: ad esempio un setting "sport" vedrà come variabile fissa la temperatura (del motore e atmosferica), mentre una "economy" quanto schiacci il pedale dell'accelleratore).

mappando i diagrammi in 2D è come se facessi a fettine sovrapposte il campo 3D, e salterai perpetuamente da una mappa all'altra a seconda del cambiamento della variabile di riferimento (nel nostro caso al variare della temperatura).

i limiti del campo (i confini della nostra "bolla d'intervento") sono dovuti al calore generale e alla dissipazione entrambi in rapporto alla temperatura, mentre i limiti dei singoli layer del campo dipendono dal voltaggio (impedenza diventa fissa, in quanto varia per la temperatura, ma il variare di questa ti fa saltare su un'altra mappa) e dal variare della velocità della ventola (perchè la dissipazione dipende sia dal variare della portata, ma anche dalla differenza che hai tra temperatura del chip e temperatura dell'aria di raffreddamento; al variare della temperatura del chip salti nuovamente mappa).
incrociando queste due variabii sai la distanza dalla curva limite e sai quanto puoi aumentare, in quel momento, la frequenza.
facendolo sai comunque che aumenterai la temperatura, ma provvederai usando un'altra mappa di quella propria temperatura.
a questo punto puoi fare una "bolla" sul punto dell'intercepta, anche questa campo applicativo e nello specifico della variabile funzione, che ti indica i possibili salti che avverranno sui layer della temperatura, e quindi ti suggeriscono quale possa essere sia l'incremento di frequenza piu' idoneo, sia il salto piu' idoneo (perchè se aumenti la frequenza devi poi regolare anche il voltaggio).

capire come funziona non è banale, ma ti suggerisce una cosa:
se hanno usato un layer di mappe è probabile che monitorizzino anche le temperature dell'aria di raffreddamento, o meglio la temperatura di uscita, che risultera sicuramente piu' stabile ed accurata, da cui puoi derivare (visto che conosci la temperatura del chip e la capacità di dissipazione del sistema) la temperatura dell'aria di raffreddamento.
puoi percio' cercare di bloccare delle variabili, per capire come gestire.
la frequenza non è possibile tenerla fissa.
le ventole, mandandole a manetta?
nemmeno il voltaggio ti viene in aiuto... cambia sempre.
il controllo della temperatura dell'aria in entrata, cercando almeno di non farla riscaldare ma fornirgliela sempre alla stessa temperatura?

oppure puoi fare un lavoro inverso, ossia cercare di usare, a regime, sempre la stessa mappa; significa cercare di mantenere fissa la temperatura.
o ti metti al limite impostabile (magari puoi intervenire diminuendo la temperatura target e cercando di mantenere quella), o raffreddando meglio (temperatura aria di raffreddamento variabile mi sembra eccessivo, meglio aumento di portata).

non è un gioco semplice... ottimizzare per il tuo specifico esemplare ti porterà via un sacco di tempo (e il tutto verrà vanificato appena la T ambientale cambierà).

PS:
m'hanno bannato dalle news di disqus su tomshw... :/
che avro' mai scritto?

Grazie della spiegazione. Comunque la prima cosa che ho fatto per stabilizzare la frequenza è stato far scendere la temperatura il più possibile mandando su di giri del blower. Ovviamente la temperatura è passata dai 75°C sulla CPU a 60°C ed idem sulle HBM da 80°C a 65°C. In questo caso la frequenza media di esercizio si alza di un pò ma continuando a fluttuare tra i valori impostati sugli Stati 6 e 7: non arriva MAI a lambire il valore impostato sul 7. Il limite insomma è una frequenza molto "dinamica".

Che tu sappia poi le HBM2 quale range di temperature operative e di sicurezza dovrebbero avere che non trovo nulla?
 
Ultima modifica:
piccola nota: faccio presente che l'HT non è solo un core logico, ma l'occupazione che viene mostrata (la %) è riparametrata rispetto a quante risorse rimangono disponibili in relazione all'uso del suo "gemello" logico sullo stesso core fisico... se uso uno dei due core logici al 50%, all'altro rimangono solo il 50% di risorse computazionali, e se mi indica 100% sto usando, in assoluto, la stessa potenza computazionale del gemello logico sullo stesso core fisico, ossia 50% in assoluto, quindi 50+50=100% d'uso del core fisico; se uso il 50% anche su questo sto in effetti usando il 50% del 50% (0.5x0.5=0.25), quindi il 25% assoluto e quindi 50%+25%=75% del core fisico.
se devo capire il reale uso dovrò prima riconoscere le coppie gemelle e quindi sommare una al valore assoluto dell'altro.
Molto interessante, stavo cominciando anche io ad informarmi sul rapporto tra megathread e numero di core/thread della cpu, e rispettivo sfruttamento (se non sbaglio è lo stesso discorso per cui, per sfruttare al meglio una 1080Ti/titan, sarebbe meglio una cpu a 6 o più cores).
La mia domanda qui, un po' da ignorante, è sul quel calcolo di utilizzo dei core fisici / logici che hai fatto.
Tecnicamente, per poter avere dei core logici, c'è bisogno di inserire delle componenti extra, che di preciso non so quali siano (ma presumo ALU extra, o parti di ALU). Quello che voglio dire è che, sfruttando un core fisico più il suo corrispettivo logico, non si avrà un 200% di prestazioni, ma molto di meno (mi pare di ricordare un 130% per quanto riguarda intel, ma vado a memoria). Insomma, credo che quel discorso dei due core (fisico/logico) al 50% + 50% = 100% sia un filo grossolano, anche se esatto in concetto.

Poi potrei benissimo sbagliarmi, per questo chiedo :)
 
Pubblicità
Pubblicità
Indietro
Top