sono cose di cui avevamo già discusso all'apertura del thread, analizzando le descrizioni delle tecnologie che anunciavano sia AMD che Nvidia.
queste sono quelle base, poi ci sono tecnologie aggiuntive e modi di operare (soprattutto per il VR) che ne amplificano la portata.
per Vega, per quel poco che è descritto delle presentazioni di AMD, si puo' confidenzialmente dire che avrà un buon incremento in DX11, perchè riuscirà a sfruttare meglio i suoi abbondanti TF senza dover occuparsi di troppi spostamente; in DX12 si dovrebbe avvantaggiare enormemente della cache L3 on die, ma non è dato sapere se la gerarchia della memoria (L1/L2/L3/VRAM/RAM di sistema) sono autogestite dal driver o se lo sviluppatore deve indicarne lo sfruttamento fine (cosa molto probabile, perchè si tratta di spazio di allocazione, che è comunque una risorsa finita e da gestire); e se è cosi', senza ottimizzazione è quasi un polaris...
in piu' ci possono essere vere sorprese per l'uso del CrossFire e con 2 chip a bordo della stessa scheda; AMD userà lo stesso sistema che usa sugli Epyc: un colegamento chip to chip da 100GB/s e/o uno esterno tramite infinite fabric; se non hai limitazioni di link e puoi condividere la memoria, hai buoni risultati... nvidia lo ha dimostrato con NVLink.
Navi invece affronterà le cose in maniera del tutto diversa.
a quanto pare diversificherà le unità base a seconda della richiesta di calcolo; potrebbe avere unità piccole che possono sommarsi senza grandi perdite di cicli insieme ad unità molto grandi che non avranno la zavorra di nessun ciclo di spostamento, ma le userà in modo selettivo, con un occhio di riguardo all'efficienza.
Volta, purtroppo è un mistero.
Nvidia ha fatto vedere V100, ma non sarà certamente quell'architettura ad entrare nella produzione di schede gaming; è troppo complessa e consente di fare proficuamente HPC, ma sprecata per il mondo gaming di oggi.
quindi non sappiamo proprio come sarà.
io ipotizzo che useranno effettivamente tensor core, ma che questi porteranno sia vantaggi per l'esecuzione di calcoli asincroni, sia svantaggi, tanti piu' transistors, eliminando in parte il vantaggio Nvidia su dimensione ed efficienza sulle sue architetture gaming puntuali sul codice in uso in quel momento.
d'altronde, quando si useranno realmente le DX12, entrambe le case staranno sfruttando architetture studiate su quel tipo di calcolo, quindi puntuali, e le differenze si appianerano (conterà nuovamente solo il PP usato).
...ma noi non abbiamo fretta di capire.... ;)
queste sono quelle base, poi ci sono tecnologie aggiuntive e modi di operare (soprattutto per il VR) che ne amplificano la portata.
per Vega, per quel poco che è descritto delle presentazioni di AMD, si puo' confidenzialmente dire che avrà un buon incremento in DX11, perchè riuscirà a sfruttare meglio i suoi abbondanti TF senza dover occuparsi di troppi spostamente; in DX12 si dovrebbe avvantaggiare enormemente della cache L3 on die, ma non è dato sapere se la gerarchia della memoria (L1/L2/L3/VRAM/RAM di sistema) sono autogestite dal driver o se lo sviluppatore deve indicarne lo sfruttamento fine (cosa molto probabile, perchè si tratta di spazio di allocazione, che è comunque una risorsa finita e da gestire); e se è cosi', senza ottimizzazione è quasi un polaris...
in piu' ci possono essere vere sorprese per l'uso del CrossFire e con 2 chip a bordo della stessa scheda; AMD userà lo stesso sistema che usa sugli Epyc: un colegamento chip to chip da 100GB/s e/o uno esterno tramite infinite fabric; se non hai limitazioni di link e puoi condividere la memoria, hai buoni risultati... nvidia lo ha dimostrato con NVLink.
Navi invece affronterà le cose in maniera del tutto diversa.
a quanto pare diversificherà le unità base a seconda della richiesta di calcolo; potrebbe avere unità piccole che possono sommarsi senza grandi perdite di cicli insieme ad unità molto grandi che non avranno la zavorra di nessun ciclo di spostamento, ma le userà in modo selettivo, con un occhio di riguardo all'efficienza.
Volta, purtroppo è un mistero.
Nvidia ha fatto vedere V100, ma non sarà certamente quell'architettura ad entrare nella produzione di schede gaming; è troppo complessa e consente di fare proficuamente HPC, ma sprecata per il mondo gaming di oggi.
quindi non sappiamo proprio come sarà.
io ipotizzo che useranno effettivamente tensor core, ma che questi porteranno sia vantaggi per l'esecuzione di calcoli asincroni, sia svantaggi, tanti piu' transistors, eliminando in parte il vantaggio Nvidia su dimensione ed efficienza sulle sue architetture gaming puntuali sul codice in uso in quel momento.
d'altronde, quando si useranno realmente le DX12, entrambe le case staranno sfruttando architetture studiate su quel tipo di calcolo, quindi puntuali, e le differenze si appianerano (conterà nuovamente solo il PP usato).
...ma noi non abbiamo fretta di capire.... ;)