UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Appena letta questa notizia:

http://www.gamersnexus.net/news-pc/3023-aib-partners-to-gn-yes-vega-price-will-change

I prezzi Vega "reali" non saranno probabilmente quelli pubblicizzati da AMD di 399 dollari per Vega 56 e di 499 dollari per Vega 64 (qui nell'articolo parla solo di Vega 64 ma comunque rende cosa ci aspetta). Quei prezzi si riferivano solo alla prima fornitura di schede e riguardava unicamente quelle vendute con i bundle. Per le schede singole lisce ci si aspetta un ricarico di 100$ più ovviamente un altro aumento per le versioni custom per consentire agli AIB d guadagnare qualcosa, dal momento che Vega gli viene venduta ad un prezzo molto alto e non hanno molto margine di guadagno. Quindi ricapitolando, se la situazione è realmente questa, in commercio avremmo:

Vega 64 custom: 499$ + 100$ + 50$ custom + 22% tasse = 650 EURO CIRCA
Vega 56 custom: 399$ + 100$ + 50$ custom + 22% tasse = 550 EURO CIRCA

Per scegliere Vega ci vuole ora un atto di fede non indifferente.
 
Forse se n'è già parlato, che ne pensate del fenomeno mining che contribuirà ad aumentare il prezzo di queste schede?
 
in overclock spinto arrivano a quasi 500w di assorbimento l'una

Non mi puoi fare i conti così perchè allora se mi conti un sistema in OC mi puoi contare anche una gpu in undervoltage. Poi quei 500W si riferiscono a sistemi COMPLETI, probabilmente in OC della cpu per i test. Vega 64 consuma massimo 300W anzi massimo 295 per la precisione, se non tocchi nulla, essendo quello il suo board power. Col profilo bios bilanciato sappiamo che ne consuma 220 se non ricordo male. Ci sono test dove un sistema fatto e finito con una Vega 64 in gioco consuma circa 450 watt (con il profilo energetico performance, quello peggiore da quello che si è visto che ti fa andare alle stelle i consumi e ti da poco guadagno in prestazioni). Il mio 1700X di watt ora ne consuma massimo 130 per come l'ho tarato ma ne potrebbe consumare 95 a default. Mettici sopra un altra cinquantina di watt tra memorie, ventole, led, cuffie, wi-fi, bluetooth e tutto il resto e un sistema col mio processore e con due Vega 64 consuma massimo 750W (ma ne potrebbe consumare abbondantemente oltre un centinaio di meno con l'utilizzo del profilo bilanciato delle 2 gpu). Funziona tutto e mi avanzano nella peggiore ipotesi possibile un centinaio di watt ancora da gestire che mi permetterebbero pure di overcloccare un poco il procio. E non ho ancora toccato al ribasso e i voltaggi delle schede grafiche. E' sensato fare un sistema così? Assolutamente no. Funziona e sto nella curva della buona efficienza del mio ali? Assolutamente si.
 
Ultima modifica:
Per quale motivo? (Semplice curiosità, nessuna polemica)

già ho scritto post del genere....
comunque:
da 12nm a 16nm (lascia stare la vera misura, ma prendendo per buono il rapporto di misure) riesci ad ottenere un guadagno del 70% circa, da giocarti:
o sulla frequenza, con andamento logaritmico teorico (V per asorbimento in relazione al calore ed all'aumento della resistività);
o sul numero di transistors, aumentando così la potenza (o le funzionalità) per ottenere un chip grande tanto quanto uno di precedente generazione PP, con stesso consumo;
o sul consumo (die shrink semplice);
o sulla dimensione (in relazione anche al consumo).

ora c'e' la questione che Nvidia deve intergare una buona percentuale di transistors in piu' solo per riuscire a gestire piu' thread, in relazione alle DX12;

nota:
le DX12 non aumentano la potenza di calcolo, ma la flessibilità; ti permettono di incrementare la potenza grafica e coadiuvarla dalla potenza computazionale della CPU senza madare questa a frequenze elevatissime, perchè punta sulla frammentazione, quindi l'uso di piu' thread secondari, e sull'ottimizzazione della gestione di processamento, riuscendo a usare la CPU in modo mediamente piu' omogeneo, invece che in modo alternato e con punte di computo rilevanti intervallate da un uso molto basso.
farlo, pero', comporta l'uso di piu' transistors (e quindi piu' spazio e piu' calore) a parità di prestazioni finali, ma con il presupposto di poterle aumentare tanto quanto piu' è alta la frammentazione e la possibilità di avere CPU con molti piu' core.
le CPU non possono crescere in frequenza senza fine... l'andamento è logaritmico e comporta un aumento di calore da smaltire, fino ad un limite funzionale che non consente piu' di crescere; finita la possibilità di aumentare le prestazioni della CPU, finita anche quella di aumentare quella del computo grafico (gli SLI scalano male principalmente perchè non hai piu' potere di farle crescere da parte della CPU).
la soluzione è aumentare i core e usare API adatte.
differenza di prestazioni in un gioco tra una GPU per DX11 (e gioco DX11) e una GPU DX12 (e gioco DX12) con schede di potenze medie ed una CPU alto di gamma?
vai di meno.
non hai colli di bottiglia portati dalla CPU, ma per le DX12 devi usare una scheda maggiormente integrata, quindi piu' calda, piu' grande, piu' energivora, con meno frequenza massima... alla fine vai di meno a pari dimensioni, decisamente meno.
usare una GPU non affine alle DX12? vai un po' meno, in confronto ad una GPU DX12, ma... che abbiamo in realtà?
una GPU affine, ma non interamente a DX12 come la GP106 da 200mm^2 e 2Ghz e passa, ed una 480 decisamente proficua in DX12 da 232mm^2 e 1250mhz (lasciamo stare l'overclock di fabbrica chiamato 580)... 15% in piu' di die, 60% in piu' di frequenza, 5.7B di Trs contro 4.4B, quasi il 30%... 14nm contro 16nm (in realtà 19 contro 21), per un 22% di differenza....
per le stesse prestazioni, grosso modo (forse il 5% in piu' per 480 in DX12, con le ultime ottimizzazioni).
quindi una GPU con die piu' grande, 15% x 22%, dimensione e rapporto di miniaturizzazione, cioè del 40%...
togliamo quel 5%? 33%...
60% su 33%, ossia frequenza su potenza dovuta alla maggiore integrazione dei transistors, 20%.
è questa la differenza prestazionale che otterresti tra una GPU DX11 ed una DX12 giocando in DX11, con la stessa dimensione del die e stesso numero di transistors (e se guardi la 470, tra frequenza inferiore e parti cuttate, ci sei molto vicino a confrontarlo con un GP106 con un -20% per 470).

ritorniamo al discorso principale:
quanto costa, in termini di percentuale in piu' di transistors, questa scelta di aumentare la compatibilità per DX12?
10/20%
quindi da quel 70% di vantaggio cumulativo del PP dobbiamo togliere quel 15% medio, ottenendo 47%.
ora, se quel 47% di campo potenziale lo vuoi sfruttare in frequenza, ottieni un 16% in piu' rispetto a pascal, ma sulle DX12, a die di dimensione uguale (piu' transistors), e allo stesso assorbimento totale di pascal.
vuoi aumentare le prestazioni (perchè sembrano poche, per una nuova generazione)?
devi farlo piu' grande e quindi piu' costoso.
lo vuoi far consumare di piu' e aumentare ancora la frequenza?
perdi il vantaggio dell'efficienza, e quanto puoi salire?
per un 15% in piu' consumerebbe il 33% in piu' (ma sarebbe il 15% x il 16% ossia 1.15x1.16=1.33, quindi lineare, se non consideriamo che hai diminuito il PP).

tutto questo è teorico, ossia senza metterci le classiche difficoltà della riduzione del processo produttivo.
transistors piu' piccoli significa leackage maggiore, che ti mangiano parecchio di quel 33%.

quindi, quanto vogliamo decurtare per le correnti di leakage? un 10%?
andrebbe il 20% in piu' ma consumerebbe il 33% in piu'.

quindi, parti dal presupposto che lo devono fare per forza con un PP migliore, per aumentare l'integrazione e quindi farla DX12, da questo arrivi al fatto che oggi un chip da 300mm^2, ossia un medio alto come il GP104 della 1080, a 12nm ti costerebbe il doppio che farlo a 16nm...
oggi ti troveresti una xx80 Volta che:
costa di piu' per il PP piu' raffinato;
va solo il 20% in piu' in DX12;
consuma il 33% in piu'.

ed in tutto questo le DX12 quanto sono sfruttate?
pochi giochi.

ora, tecnicamente, se mi fanno domani, 18 agosto 2017, un Volta che và il 25-30% in piu', sia in DX11 che DX12, che consuma uguale e costi come pascal al lancio, sono ingegneri con le palle!
se non lo fanno domani, ma tra nove mesi, un anno, sono solo dei bravissimi ingegneri.

tutto qui.
 
Ultima modifica:
2 o 3 anni fa quando ho assemblato il mio (primo) pc si cominciava a parlare delle DirectX 12, sembrava che dovevano dare un boost notevole alle prestazioni in gaming, sembrava che le radeon fossero quelle che più ne avrebbero giovato.
siamo qui ora, un paio di generazioni dopo con la situazione cambiata di poco, bisogna riconoscere che nvidia sa meglio interpretare le tempistiche del mercato. anche se personalmente sono fiducioso sull'evoluzione di queste vega.

ci sono due diversi discorsi da separare:
uno è che AMD non ha il potere finanziario, e quindi di R&D di nvidia, e quindi non puo' frazionare le architetture, separandole in PRO e consumer, o per uno specifico scopo, come l'AI... puo' fare un chip, uno che è buono piu' o meno per tutto... e quello ha fatto.
questo porta a dei compromessi.
uno di questi compromessi è stato quello di saltare le DX11... fare un'architettura DX11 non andava sui diversi campi operativi in modo ottimale.
fare una DX12 ed emulare le DX11 portava ad una perdita per overhead sui driver, e quindi minore rendimento per teraflops teorico messo in campo... ma almeno sulle PRO avevi un'architettura buona per fare certi calcoli.
due è che ancora oggi non hai delle vere DX12, che avvantaggerebbero GNC, perchè la penetrazione di mercato di AMD è scarsa.
nessuno sviluppa per solo il 20% del mercato, e quel 20% dev'essere programmato in modo ben diverso, nuovo.

oggi abbiamo dei limiti tecnici per cui le DX11 non possono piu' incrementare le prestazioni (sulla fascia alta)... oggi pensano piu' alle Dx12 o quantomeno a quei requisiti che anche GNC incomincia a girare bene, ma questo avviene perchè c'e' Pascal, che ha quel minimo in piu' di maxwel per usare quel minimo di vantaggio da DX11.3 e DX12t1, ossia sfruttare anche piu' di 4 core, anche se sempre con lo stesso paradigma (megathread e thread figli).
 
Sarebbe infatti interessante approfondire come mai Vega 56 riesca a raggiungere quasi la 1080Ti in Dirt 4 e vada un ottimo +20% sulla GTX1070 con un aliasing tipo il CMAA o in MSAA 4X invece del preimpostato MSAA 8X. Ora mi chiedo, basta cambiare un insignificante filtro per avere questo boost prestazionale da +20%, magari non su tutti gli engine ma almeno quelli basati sulla stessa tipologia? Le risposte tecniche stanno oltre le mie possibilità ma sarei curioso di sapere.

è che non va di piu', ma che pascal va meno.
per come è fatto...
usa molto la compressione, ma se aumenti cosi' i dati... soffre.
 
Pascal iniziò la fase progettuale 1 anno prima di Kepler e 3 anni prima di Maxwel, V100 non è sul mercato, esce quando sono pronti i nodi a 12nm, la relativa parte gaming aspetta GDDR6, in tutto questo non vedo nulla di pindarico e nessun cartone animato.
Comunque visto il livello della discussione che non mi sta piacendo, abdico, buona continuazione.

i sordi non è che non vogliono ascoltare, è che non gli funziona l'udito...
leggi il perchè, nell'altro post, non è tecnicamente presumibile che possano farlo oggi.

aspettano i 12nm, ma quando realmente diventa economico, tanto quanto i 16nm quando partì la produzione Pascal.

e ti ripeto, un vectors processor non è adatto alla grafica di oggi...
ci provò intel 15 anni fa (ed oggi ha le AVX512).

per quanto riguarda "incominciare il progetto" in tot anno e finirlo 4 anni dopo, è la litografia che comanda.
ce li devi litografare su quel silicio, ed ogni processo richiede accortezze specifiche per ogni disegno.
la peggiore cosa è dover sistemare quei transistors che hai immaginato sulla carta e disegnato a schemi a blocchi, e metterli uno a uno sul silicio, cercando di massimizzare il disegno, quadrare il chip dimensionalmente (perchè dipende anche da lunghezza e larghezza e da dove metti effettivamente i singoli componenti del chip, visto che un ASIC di decodifica sicuramente soffre meno di un IMC nello stare sul bordo del wafer e le rese crescono) e non ultimo testare sul wafer, e poi cucirci i driver ed il firmware per mediare i parametri (frequenza, alimentazione e dissipazione) dai piani di progetto a quello che effettivamente riesci a tirarci fuori.
quindi Volta gaming è in statup? lo stanno litografando?
se non lo è non lo vedi nemmeno tra 9 mesi.

e tu parli del fatto che stanno lavorando sul "dopo Volta" quando ancora non sanno effettivamente che nome dargli...

forse, ma dico forse, riciclano l'architettura di V100 fra una o due generazioni dopo Volta, perchè si passerà a grafica vettoriale, almeno da quello che ha fatto intuire nvidia nell'ultima uscita che ha fatto.
ci provò Intel 15 anni fà con Larrabee, e si accorse che gli mancavono buoni 40TF per farlo (e poi fece la SSE).
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top