UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
wulff...
pensavo...
per recuperare un po' di margine sul power limit, se abbassi le HBM di 50-100 di mhz e metti HBCC?
che dici, quei 10-15W che recuperi li puoi spendere in frequenza sul chip e, allo stesso momento, tamponare con HBCC?
 
Ultima modifica:
ottimo, a quanto arrivi in full?
bel lavoro comunque, dovresti nascondere un po quei filacci in basso per avere un po piu di pulizia

Sto mettendo un video fatto con Metro, non ho avuto ancora tempo per fare molti test, poi cmq l'impianto si deve stabilizzare, nel video che tra poco metto hwinfo mi segna 41 e 46 sulle hbm, considera che le ventole da 120 al max girano a 1300/1400 e la pompa d5 è al 60%

Dimenticavo si devo sistemare quei cavetti appena ho un po di tempo e pace in casa lo faccio.
 
bel sistema, solo 2 appunti:
il raccordo tra VGA e CPU mi pare un po' forzato; non era meglio farlo leggermente piu' lungo e con una curva dolce?
la seconda è sulla pulizia: prendi una calza da donna da 20 denari e usale come filtro "grosso" davanti alle ventole.

difficoltà a togliere e mettere i dissipatori?

Tra VGA e CPU ho messo due 45 e il tubo dritto x dritto forse le foto ingannano un pochino ma non c'è nessuna strozzatura sul tubo.
La pulizia devo farla ma il tempo scarseggia e volevo vedere l'impianto in funzione, il mio case ha già i filtri devo solo pulirli.
No le difficoltà che ho avuto sono state per il radiatore davanti che avevo poco spazio di movimento e quel radiatore da 45 non doveva avere il tappo sotto di scarico(almeno nelle foto sul loro sito e su un video visto su youtube non c'era.
Poi ho dovuto modificare la staffa per fissare pompa e vaschetta sul radiatore fortuna ho un amico fabbro e poi gli ho dato una spruzzata di nero.
In fase di riempimento ho dovuto cambiare al volo un raccordo che perdeva, difettoso.
Mettici un po di inesperienza personale per i custom loop e puoi farti una idea.

Ecco il video Hbcc on a 13200 Tensione stato6 a 1020 e stato7 a 1080

 
Ultima modifica:
quello che non ho capito, il senso di farle uscire due anni dopo ,con prestazioni inferiori ,e allo stesso prezzo ? e quando uscirà volta che faranno ?
 
Ho fatto una carrellata in alcuni giochi della mia lista con HBCC attivo e spento per vedere il guadagno di fps (a 1080p con dettaglio ultra):

Ghost Recon Wildlands: quasi nessun guadagno (1 fps), aggiungo screencap con a sinistra il run con HBCC attivo;

TCGRW.webp

The Witcher 3: idem come sopra, al massimo un paio di fps;

Dying Light: qualche fps di guadagno ma comunque trascurabile;

Project Cars 2: idem come sopra;

Hellblade Senua's Sacrifice: forse un paio di fps;

Battlefield 1: EDIT: forse un piccolo guadagno sui minimi comunque trascurabile, posto un video sulla stessa sequenza, a destra con HBCC attivo.



La serie di Metro invece fa un bel salto avanti invece....
 
Ultima modifica:
quello che non ho capito, il senso di farle uscire due anni dopo ,con prestazioni inferiori ,e allo stesso prezzo ? e quando uscirà volta che faranno ?
quando uscirà volta sarà l'armageddon, i possessori di schede vega si suicideranno preventivamente. seguiranno lunghi anni di pace dove potrete pascolare su lunghe distese verdi.. cedo,saluti.
 
quello che non ho capito, il senso di farle uscire due anni dopo ,con prestazioni inferiori ,e allo stesso prezzo ? e quando uscirà volta che faranno ?

A parte gli scherzi le Vega NON stanno uscendo perchè se le sta tenendo tutte AMD in fabbrica a minare. I prezzi alti sono fatti apposta per non farle vendere così se le tiene proprio tutte. Ha poi costruito una farm per minare grande come l'Arizona e quando uscirà Volta non ci sarà alcun problema perchè AMD nel frattempo si sarà comprata Nvidia con i Bitcoin guadagnati. Volta sarà una scheda marchiata AMD...
 
Ultima modifica:
A parte gli scherzi le Vega NON stanno uscendo perchè se le sta tenendo tutte AMD in fabbrica a minare. I prezzi alti sono fatti apposta per non farle vendere così se le tiene proprio tutte. Ha poi costruito una farm per minare grande come l'Arizona e quando uscirà Volta non ci sarà alcun problema perchè AMD nel frattempo si sarà comprata Nvidia con i Bitcoin guadagnati. Volta sarà una scheda marchiata AMD...

cosi avrebbe senso .. :D
 
quello che non ho capito, il senso di farle uscire due anni dopo ,con prestazioni inferiori ,e allo stesso prezzo ? e quando uscirà volta che faranno ?
questa è una buona domanda.
cominciamo col dire che volta non è quello che stiamo vedendo sotto V100; quello è un coprocessore HPC, ben diverso.
l'implementazione consumer di Volta è una bella domanda, in quanto nvidia ha 3 strade:
1) continuare ad usare una schema con scheduler software, con tecnologia diversa per far consumare meno cicli CPU di oggi pur gestendo piu' richieste e quindi massificare le risorse delle GPU, spostando un po' piu' il là il problema di sovrasaturazione del core per il megathread.
in questo modo deve solo decidere se usare piu' GPC per molti piu' SM.
da maxwell a pascal siamo passati da 8 SM a 10 SM per GPC; se continuano su questa strada potrebbero proporre 12 SM per GPC, ottenendo quindi un aumento del 20% delle risorse.
2) trovare il modo d'impostare il driver per una schedulazione SW del tipo multi GPU, ossia che ogni singola macrounità della scheda venga vista come una risosra a parte.
in questo modo potrebbe avere sempre un megathread ma che gestisce solo le richieste grossolane, spedendo su altri sottothread la gestione dell'unità di calcolo.
facendo cosi' puo' scalare i processori per potenza della scheda: piu' una scheda è potente, piu' core ci vorrano sul processore per saturarla, ma il lavoro verrà cosi' diviso per un numero maggiore di core (il che ha anche senso; con una scheda con molte subunità, ossia una high end, ci vorranno processori con molti core, ossia high end... correlando le performance prestazionali con il costo).
nella pratica in parte viene già fatto questo discorso, ma è molto piu' confusionario... "costringendo" questo tipo di organizzazione il carico dell'ottimizzazione viene dato, come è anche giusto, agli sviluppatori.
3) mettere lo scheduling in HW, facendogli fare un lavoro base, come avviene sulle AMD, scaricando il driver da questo compito.

di per se basta che Volta abbia un dimezzamento del processo base che già siamo ad una gestione sufficientemente fine per le DX12 (non per AC, ma per i giochi, schede per cui verranno prodotte, va piu' che bene per questo periodo di transizione).

in tutte e tre le ipotesi si parla comunque di un miglioramento di rendimento su Pascal, ed è assai difficile migliorarlo.
possiamo dire che pascal, in DX11 ha un ottimo sfruttamento HW, e che sarebbe possibile trasferire questo rateo prestazionale anche in DX12, ma per ottenere piu' prestazioni o aumenti la frequenza o l'integrazione.
frequenze piu' alte poco convengono per una questione di consumo, mentre piu' integrazione dev'essere mitigata dalla riduzione di consumo e superficie gatantita da un nuovo processo produttivo, ossia i 12 o 10nm.
quindi finchè TMSC non è pronta per la produzione in massa dei 10nm non vedremo Volta.
ad inizio 2018 dovrebbe cominciare a prendere ordini per il 7nm su SoC (per cui la produzione sarà tra agosto e settembre se va tutto bene);
oggi fa i 10nm sempre per i SoC, ma non per i chip grandi, e le linee sono sia occupate da Apple e Samsung, e sono poche.
è prevedibile che prima di maggio non usciranno chip mainstream per GPU con quel processo, ma sicuramente qualcosa in piu' si saprà, della strada intrapresa da nvidia.
quanti benefici porteranno i 10nm?
piu' o meno, a pari superficie, il 20-25% in piu' di integrazione, a seconda delle rese che intendono avere, per una diminuzione dei consumi del 10%.
non credo che useranno i 12nm, in quanto perderebbero o il 10% prestazionale o i 10% in consumi.
(e, per quanto se ne possa dire, un chip da 180W non lo metti nei portatili... oggi si pensa ad una unificazione dei due rami di prodotto).

cosa farà AMD?
a fine 2018 avrà anche lei i 7nm, ma si deve vedere con che cosa li vogliono spendere.
le linee saranno poche su quel pp e che chip ci faranno sopra non si è ben capito...
se ci faranno i nuovi Ryzen, hanno già finito tutto lo spazio produttivo.
manterranno attivi i 14+ per una stagione, in modo da ottenere prodotto, il vero freno delle vendite (miners o non miners il prodotto è richiesto, ma non lo fanno perchè non hanno effettivamente la possibilità di farlo), quindi è possibile che parte dei Ryzen verranno ancora fatti su entrambe le linee, che Navi, che sarà anche questa un chip multi purpose, quindi piu' conveniente da vendere sulle linee di prodotto PRO, sicuramente lo faranno sui 7nm, ma Vega rimarrà a 14, 14+ forse...

su Navi hanno fatto vedere il proposito di costruirlo multichip...
multichip non è buono per il mondo consumer...
un processore puo' anche andare bene, ma una GPU no... solo un HPC ne apprezzerebbe i vantaggi.
è quindi possibile una Vega sui 14+ per mitigarne i consumi, con un po' di recupero prestazionale per driver e API massivamente adottate, e chip inferiori, mainstream che sono una parte di Navi, riuscendo cosi' a meglio segmentare l'offerta con un chip comunque piu' piccolo, alla stregua di un pascal 10, ma con una potenza intermedia tra 580 e 56.
ecco perchè pare strano anche un discorso su un Vega 11...
non c'e' spazio per produrlo, perchè annunciarlo?
oltre Vega?
bhà, si parlava di un dual chip...
non sarà il massimo.
anche abbattendo i consumi di vega a 200W mantenendo le stesse prestazioni, un dual chip farebbe dai 300 ai 400W per stare in mezzo ad una possibile xx80 e titan (le xx80 Ti le tirano fuori sempre sei mesi dopo).

il vero problema è trovare lo spazio per produrli, questi chip;
discorso che vale per tutti, comunque.
 
è di difficile interpretazione il beneficio che porta...
si dovrebbero fare delle prove sulle memorie..

Per ora ho più dubbi che certezze....
Ho fatto questi 2 test per vedere le differenze (Heaven e Fire Strike Ultra). I risultati sono questi:

Unigine Heaven HBCC.webp Firestrike Ultra HBCC.webp

Poca roba insomma. Pure provando qualche gioco in 4K con la risoluzione virtuale non cambia molto tra avere l'HBCC su attivo o meno. Metro invece trae proprio un buon beneficio dal tenere attiva questa opzione. Ho provato anche altri giochi con impostazioni grafiche diverse ma nisba.... L'unica cosa che posso pensare al momento è che in Metro era attivo l' SSAA 2X a differenza di altri giochi ma la questione abbisogna di un approfondimento.

PS: un altra cosa che fa pensare è che mentre Metro carica 400+ MB sulla RAM con l'HBCC acceso gli altri giochi ne caricano molto meno....un centinaio se va bene, alcuni manco quello. Non vorrei che fosse una "feature" positiva se programmata all'origine dallo sviluppatore del gioco...pare solo strano che funzioni su un gioco di qualche anno fa.
 
Ultima modifica:
bel sistema, solo 2 appunti:
il raccordo tra VGA e CPU mi pare un po' forzato; non era meglio farlo leggermente piu' lungo e con una curva dolce?
la seconda è sulla pulizia: prendi una calza da donna da 20 denari e usale come filtro "grosso" davanti alle ventole.

difficoltà a togliere e mettere i dissipatori?
Ottima soluzione per fare il filtro grazie


Inviato da K10000 tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
questa è una buona domanda.
cominciamo col dire che volta non è quello che stiamo vedendo sotto V100; quello è un coprocessore HPC, ben diverso.
l'implementazione consumer di Volta è una bella domanda, in quanto nvidia ha 3 strade:
1) continuare ad usare una schema con scheduler software, con tecnologia diversa per far consumare meno cicli CPU di oggi pur gestendo piu' richieste e quindi massificare le risorse delle GPU, spostando un po' piu' il là il problema di sovrasaturazione del core per il megathread.
in questo modo deve solo decidere se usare piu' GPC per molti piu' SM.
da maxwell a pascal siamo passati da 8 SM a 10 SM per GPC; se continuano su questa strada potrebbero proporre 12 SM per GPC, ottenendo quindi un aumento del 20% delle risorse.
2) trovare il modo d'impostare il driver per una schedulazione SW del tipo multi GPU, ossia che ogni singola macrounità della scheda venga vista come una risosra a parte.
in questo modo potrebbe avere sempre un megathread ma che gestisce solo le richieste grossolane, spedendo su altri sottothread la gestione dell'unità di calcolo.
facendo cosi' puo' scalare i processori per potenza della scheda: piu' una scheda è potente, piu' core ci vorrano sul processore per saturarla, ma il lavoro verrà cosi' diviso per un numero maggiore di core (il che ha anche senso; con una scheda con molte subunità, ossia una high end, ci vorranno processori con molti core, ossia high end... correlando le performance prestazionali con il costo).
nella pratica in parte viene già fatto questo discorso, ma è molto piu' confusionario... "costringendo" questo tipo di organizzazione il carico dell'ottimizzazione viene dato, come è anche giusto, agli sviluppatori.
3) mettere lo scheduling in HW, facendogli fare un lavoro base, come avviene sulle AMD, scaricando il driver da questo compito.

di per se basta che Volta abbia un dimezzamento del processo base che già siamo ad una gestione sufficientemente fine per le DX12 (non per AC, ma per i giochi, schede per cui verranno prodotte, va piu' che bene per questo periodo di transizione).

in tutte e tre le ipotesi si parla comunque di un miglioramento di rendimento su Pascal, ed è assai difficile migliorarlo.
possiamo dire che pascal, in DX11 ha un ottimo sfruttamento HW, e che sarebbe possibile trasferire questo rateo prestazionale anche in DX12, ma per ottenere piu' prestazioni o aumenti la frequenza o l'integrazione.
frequenze piu' alte poco convengono per una questione di consumo, mentre piu' integrazione dev'essere mitigata dalla riduzione di consumo e superficie gatantita da un nuovo processo produttivo, ossia i 12 o 10nm.
quindi finchè TMSC non è pronta per la produzione in massa dei 10nm non vedremo Volta.
ad inizio 2018 dovrebbe cominciare a prendere ordini per il 7nm su SoC (per cui la produzione sarà tra agosto e settembre se va tutto bene);
oggi fa i 10nm sempre per i SoC, ma non per i chip grandi, e le linee sono sia occupate da Apple e Samsung, e sono poche.
è prevedibile che prima di maggio non usciranno chip mainstream per GPU con quel processo, ma sicuramente qualcosa in piu' si saprà, della strada intrapresa da nvidia.
quanti benefici porteranno i 10nm?
piu' o meno, a pari superficie, il 20-25% in piu' di integrazione, a seconda delle rese che intendono avere, per una diminuzione dei consumi del 10%.
non credo che useranno i 12nm, in quanto perderebbero o il 10% prestazionale o i 10% in consumi.
(e, per quanto se ne possa dire, un chip da 180W non lo metti nei portatili... oggi si pensa ad una unificazione dei due rami di prodotto).

cosa farà AMD?
a fine 2018 avrà anche lei i 7nm, ma si deve vedere con che cosa li vogliono spendere.
le linee saranno poche su quel pp e che chip ci faranno sopra non si è ben capito...
se ci faranno i nuovi Ryzen, hanno già finito tutto lo spazio produttivo.
manterranno attivi i 14+ per una stagione, in modo da ottenere prodotto, il vero freno delle vendite (miners o non miners il prodotto è richiesto, ma non lo fanno perchè non hanno effettivamente la possibilità di farlo), quindi è possibile che parte dei Ryzen verranno ancora fatti su entrambe le linee, che Navi, che sarà anche questa un chip multi purpose, quindi piu' conveniente da vendere sulle linee di prodotto PRO, sicuramente lo faranno sui 7nm, ma Vega rimarrà a 14, 14+ forse...

su Navi hanno fatto vedere il proposito di costruirlo multichip...
multichip non è buono per il mondo consumer...
un processore puo' anche andare bene, ma una GPU no... solo un HPC ne apprezzerebbe i vantaggi.
è quindi possibile una Vega sui 14+ per mitigarne i consumi, con un po' di recupero prestazionale per driver e API massivamente adottate, e chip inferiori, mainstream che sono una parte di Navi, riuscendo cosi' a meglio segmentare l'offerta con un chip comunque piu' piccolo, alla stregua di un pascal 10, ma con una potenza intermedia tra 580 e 56.
ecco perchè pare strano anche un discorso su un Vega 11...
non c'e' spazio per produrlo, perchè annunciarlo?
oltre Vega?
bhà, si parlava di un dual chip...
non sarà il massimo.
anche abbattendo i consumi di vega a 200W mantenendo le stesse prestazioni, un dual chip farebbe dai 300 ai 400W per stare in mezzo ad una possibile xx80 e titan (le xx80 Ti le tirano fuori sempre sei mesi dopo).

il vero problema è trovare lo spazio per produrli, questi chip;
discorso che vale per tutti, comunque.
Ma con le nuove schede vedremo le gddr6 per la fascia consumer e le hbm2 solo su fascia alta volta xx80ti/titan?
Cosi ci metteranno una vita a sfruttare bene le hbm2(i programmatori)

Inviato da K10000 tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
Pubblicità
Pubblicità
Indietro
Top