Per quale motivo? (Semplice curiosità, nessuna polemica)
già ho scritto post del genere....
comunque:
da 12nm a 16nm (lascia stare la vera misura, ma prendendo per buono il rapporto di misure) riesci ad ottenere un guadagno del 70% circa, da giocarti:
o sulla frequenza, con andamento logaritmico teorico (V per asorbimento in relazione al calore ed all'aumento della resistività);
o sul numero di transistors, aumentando così la potenza (o le funzionalità) per ottenere un chip grande tanto quanto uno di precedente generazione PP, con stesso consumo;
o sul consumo (die shrink semplice);
o sulla dimensione (in relazione anche al consumo).
ora c'e' la questione che Nvidia deve intergare una buona percentuale di transistors in piu' solo per riuscire a gestire piu' thread, in relazione alle DX12;
nota:
le DX12 non aumentano la potenza di calcolo, ma la flessibilità; ti permettono di incrementare la potenza grafica e coadiuvarla dalla potenza computazionale della CPU senza madare questa a frequenze elevatissime, perchè punta sulla frammentazione, quindi l'uso di piu' thread secondari, e sull'ottimizzazione della gestione di processamento, riuscendo a usare la CPU in modo mediamente piu' omogeneo, invece che in modo alternato e con punte di computo rilevanti intervallate da un uso molto basso.
farlo, pero', comporta l'uso di piu' transistors (e quindi piu' spazio e piu' calore) a parità di prestazioni finali, ma con il presupposto di poterle aumentare tanto quanto piu' è alta la frammentazione e la possibilità di avere CPU con molti piu' core.
le CPU non possono crescere in frequenza senza fine... l'andamento è logaritmico e comporta un aumento di calore da smaltire, fino ad un limite funzionale che non consente piu' di crescere; finita la possibilità di aumentare le prestazioni della CPU, finita anche quella di aumentare quella del computo grafico (gli SLI scalano male principalmente perchè non hai piu' potere di farle crescere da parte della CPU).
la soluzione è aumentare i core e usare API adatte.
differenza di prestazioni in un gioco tra una GPU per DX11 (e gioco DX11) e una GPU DX12 (e gioco DX12) con schede di potenze medie ed una CPU alto di gamma?
vai di meno.
non hai colli di bottiglia portati dalla CPU, ma per le DX12 devi usare una scheda maggiormente integrata, quindi piu' calda, piu' grande, piu' energivora, con meno frequenza massima... alla fine vai di meno a pari dimensioni, decisamente meno.
usare una GPU non affine alle DX12? vai un po' meno, in confronto ad una GPU DX12, ma... che abbiamo in realtà?
una GPU affine, ma non interamente a DX12 come la GP106 da 200mm^2 e 2Ghz e passa, ed una 480 decisamente proficua in DX12 da 232mm^2 e 1250mhz (lasciamo stare l'overclock di fabbrica chiamato 580)... 15% in piu' di die, 60% in piu' di frequenza, 5.7B di Trs contro 4.4B, quasi il 30%... 14nm contro 16nm (in realtà 19 contro 21), per un 22% di differenza....
per le stesse prestazioni, grosso modo (forse il 5% in piu' per 480 in DX12, con le ultime ottimizzazioni).
quindi una GPU con die piu' grande, 15% x 22%, dimensione e rapporto di miniaturizzazione, cioè del 40%...
togliamo quel 5%? 33%...
60% su 33%, ossia frequenza su potenza dovuta alla maggiore integrazione dei transistors, 20%.
è questa la differenza prestazionale che otterresti tra una GPU DX11 ed una DX12 giocando in DX11, con la stessa dimensione del die e stesso numero di transistors (e se guardi la 470, tra frequenza inferiore e parti cuttate, ci sei molto vicino a confrontarlo con un GP106 con un -20% per 470).
ritorniamo al discorso principale:
quanto costa, in termini di percentuale in piu' di transistors, questa scelta di aumentare la compatibilità per DX12?
10/20%
quindi da quel 70% di vantaggio cumulativo del PP dobbiamo togliere quel 15% medio, ottenendo 47%.
ora, se quel 47% di campo potenziale lo vuoi sfruttare in frequenza, ottieni un 16% in piu' rispetto a pascal, ma sulle DX12, a die di dimensione uguale (piu' transistors), e allo stesso assorbimento totale di pascal.
vuoi aumentare le prestazioni (perchè sembrano poche, per una nuova generazione)?
devi farlo piu' grande e quindi piu' costoso.
lo vuoi far consumare di piu' e aumentare ancora la frequenza?
perdi il vantaggio dell'efficienza, e quanto puoi salire?
per un 15% in piu' consumerebbe il 33% in piu' (ma sarebbe il 15% x il 16% ossia 1.15x1.16=1.33, quindi lineare, se non consideriamo che hai diminuito il PP).
tutto questo è teorico, ossia senza metterci le classiche difficoltà della riduzione del processo produttivo.
transistors piu' piccoli significa leackage maggiore, che ti mangiano parecchio di quel 33%.
quindi, quanto vogliamo decurtare per le correnti di leakage? un 10%?
andrebbe il 20% in piu' ma consumerebbe il 33% in piu'.
quindi, parti dal presupposto che lo devono fare per forza con un PP migliore, per aumentare l'integrazione e quindi farla DX12, da questo arrivi al fatto che oggi un chip da 300mm^2, ossia un medio alto come il GP104 della 1080, a 12nm ti costerebbe il doppio che farlo a 16nm...
oggi ti troveresti una xx80 Volta che:
costa di piu' per il PP piu' raffinato;
va solo il 20% in piu' in DX12;
consuma il 33% in piu'.
ed in tutto questo le DX12 quanto sono sfruttate?
pochi giochi.
ora, tecnicamente, se mi fanno domani, 18 agosto 2017, un Volta che và il 25-30% in piu', sia in DX11 che DX12, che consuma uguale e costi come pascal al lancio, sono ingegneri con le palle!
se non lo fanno domani, ma tra nove mesi, un anno, sono solo dei bravissimi ingegneri.
tutto qui.