E' del tutto possibile, d'altra parte ha circa gli stessi numeri grezzi (in flops) di un nvidia V100 da 815mm^2
Quello che sfugge ai più è che questo chip deve competere con GP100, GP102, GP104 e anche V100. In ambiti pro abbiamo già visto che in base al tipo di utilizzo va come GP102. In gaming (da vedere con il lancio della RX, ma per il momento prendiamo la FE) va come GP104. Nel machine learning, 16b, fa a pezzi GP100 ed è competitor di V100.
Se la situazione FE non verrà modificata sensibilmente dalla RX significherà che con il budget a disposizione per un chip che deve competere contro 4 diversi hanno scelto di puntare sul mercato con la maggior previsione di crescita (learning), invece che su quello in cui anche quando hanno fatto prodotti eccezionali non hanno comunque sfondato (gaming).
non compete con P100 e V100, almeno non in tutti gli ambiti.
è ottimo per basi piccole (INT8/FP16/FP32) riuscendo ad essere competitivo (80% delle prestazioni allo stesso costo energetico, ma ad un costo di 1/10), ma P100 computa linearmente fino a FP64 e V100 fino a FP128.
non si usano in tutti gli stessi campi, insomma.
AMD ha puntato alla AI, come Intel ha puntato al HPC scientific purpose, dove servono basi decisamente grandi (AVX512); nvidia stà nel mezzo ed è ad uso piu' generalistico, ma meno specifico (FP64 e FP128 sono di ordine finanziario/predittivo, anche se oggi si potrebbe fare con una rete neurale a base piccola).
il punto focale è pero' la crescita di mercato:
il primo, l'AI, ed il secondo, HPC SP (ma con lo stesso HW fai anche tutte le basi inferiori, fino a INT8, e con progressione lineare), sono quelli che crescono piu' rapidamente rispetto a quelli in cui si usano basi intermedie.
AMD ha dalla sua il costo, pero'.
a pari prezzo un server vega AI devasterebbe uno con AVX512 o V100, anche se consumerebbe tanto quanto va di piu' (ed è un fattore da considerare, in certi ambiti).
si parla di un settore, pero', in forte crescita verso le piccole potenze di calcolo, non sui datacenter.
non dico che saranno usate in AI dalla gente comune, ma in WS o piccoli centri di calcolo, dove l'economicità della soluzione ha la sua valenza.