UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Al più una simil 1070 ha senso in full hd 60Hz in prospettiva futura, e per il momento per menarci il più possibile con la grafica (vi garantisco che ci sono giochi molto pesanti :asd:). A buon prezzo non la disdegnerei, però la 1070 è sempre una scheda che fa gli 80fps in 1440p (io mediamente sono messo così) :)

@Tongol : in linea di massima si. Però in alcuni giochi con alcuni ritocchi secondo me ce la potrebbe fare (come ce la puo' fare la 1080) :sisi: al 90% però non sarebbe la "risoluzione di riferimento" come lo è per la 1080 Ti. Se uno a tutti i costi vuole il 4K e non vuole spendere una fortuna per la Ti potrebbe essere una soluzione.
Si magari accompagnata da un buon monitor freesync ci potrebbe stare, sapendo che sicuramente su alcuni giochi un po' più pesanti si dovrà abbassare un po' dettagli.
Alla fine ormai la differenza nel bene o nel male mi sa che la farà il prezzo a cui verranno proposte queste schede.

Inviato da ASUS_Z00AD tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
Secondo me piazzeranno la cut nella fascia di prezzo appena sopra la 580, ovvero 300-350 e la full a 400-450. Resta il fatto che e' molto deludente, nuova architettura e +60% di clock portano giusto un +30% da fiji con consumi pure superiori, e' un triste scenario che chiunque di noi difficilmente si sarebbe aspettato
 
Secondo me piazzeranno la cut nella fascia di prezzo appena sopra la 580, ovvero 300-350 e la full a 400-450. Resta il fatto che e' molto deludente, nuova architettura e +60% di clock portano giusto un +30% da fiji con consumi pure superiori, e' un triste scenario che chiunque di noi difficilmente si sarebbe aspettato

Se sarà confermato non me lo sarei aspettato, ma è sicuramente una situazione figlia di quanto ho scritto poco sopra: hanno privilegiato mercati con aspettative di crescita in tripla cifra con le poche risorse a disposizione vendendolo poi anche nel gaming solo come effetto secondario.
 
Se sarà confermato non me lo sarei aspettato, ma è sicuramente una situazione figlia di quanto ho scritto poco sopra: hanno privilegiato mercati con aspettative di crescita in tripla cifra con le poche risorse a disposizione vendendolo poi anche nel gaming solo come effetto secondario.
Da vedere quanto dura il tutto Comunque, volta non pare così lontana
 
sinceramente anche a me pare molto strano che con architettura nuova, dopo 2 anni, +60% di clock i risultati siano questi.
Fosse vero, era meglio far uscire solo le FE e passare alla prossima gen di RX.

Una piccola speranza che non sia così la coltivo ancora.
 
sinceramente anche a me pare molto strano che con architettura nuova, dopo 2 anni, +60% di clock i risultati siano questi.
Fosse vero, era meglio far uscire solo le FE e passare alla prossima gen di RX.

Una piccola speranza che non sia così la coltivo ancora.
Io spero ancora in un miracolo driver.
 
sinceramente anche a me pare molto strano che con architettura nuova, dopo 2 anni, +60% di clock i risultati siano questi.
Fosse vero, era meglio far uscire solo le FE e passare alla prossima gen di RX.

Una piccola speranza che non sia così la coltivo ancora.

Boh, sì, anche a me pare strano, tant'è che visto tutto ipotizzavo intorno alla 1080Ti come prestazioni.

Ho fatto varie ipotesi per cui la RX possa andare significativamente di più della FE nel gaming, ma può pure essere che invece sia stata progettata così, mettendo tutto quel silicio a lavoro solo in altri mercati (machine learning) e usando invece solo una frazione del potenziale, nel gaming.
 
E' del tutto possibile, d'altra parte ha circa gli stessi numeri grezzi (in flops) di un nvidia V100 da 815mm^2

Quello che sfugge ai più è che questo chip deve competere con GP100, GP102, GP104 e anche V100. In ambiti pro abbiamo già visto che in base al tipo di utilizzo va come GP102. In gaming (da vedere con il lancio della RX, ma per il momento prendiamo la FE) va come GP104. Nel machine learning, 16b, fa a pezzi GP100 ed è competitor di V100.

Se la situazione FE non verrà modificata sensibilmente dalla RX significherà che con il budget a disposizione per un chip che deve competere contro 4 diversi hanno scelto di puntare sul mercato con la maggior previsione di crescita (learning), invece che su quello in cui anche quando hanno fatto prodotti eccezionali non hanno comunque sfondato (gaming).

non compete con P100 e V100, almeno non in tutti gli ambiti.
è ottimo per basi piccole (INT8/FP16/FP32) riuscendo ad essere competitivo (80% delle prestazioni allo stesso costo energetico, ma ad un costo di 1/10), ma P100 computa linearmente fino a FP64 e V100 fino a FP128.
non si usano in tutti gli stessi campi, insomma.
AMD ha puntato alla AI, come Intel ha puntato al HPC scientific purpose, dove servono basi decisamente grandi (AVX512); nvidia stà nel mezzo ed è ad uso piu' generalistico, ma meno specifico (FP64 e FP128 sono di ordine finanziario/predittivo, anche se oggi si potrebbe fare con una rete neurale a base piccola).
il punto focale è pero' la crescita di mercato:
il primo, l'AI, ed il secondo, HPC SP (ma con lo stesso HW fai anche tutte le basi inferiori, fino a INT8, e con progressione lineare), sono quelli che crescono piu' rapidamente rispetto a quelli in cui si usano basi intermedie.
AMD ha dalla sua il costo, pero'.
a pari prezzo un server vega AI devasterebbe uno con AVX512 o V100, anche se consumerebbe tanto quanto va di piu' (ed è un fattore da considerare, in certi ambiti).
si parla di un settore, pero', in forte crescita verso le piccole potenze di calcolo, non sui datacenter.
non dico che saranno usate in AI dalla gente comune, ma in WS o piccoli centri di calcolo, dove l'economicità della soluzione ha la sua valenza.
 
In full HD una simil 1080?
Ma anche no. Al massimo, se proprio la scimmia ti uccide, la versione cut. Ma anche in quel caso avrebbe poco senso(in base a che prestazioni ha?), aspetterei volta v106 l'anno prossimo
tu non eri quello che diceva "aspetterei GK104 l'anno prossimo..."?

se ti serve vedi che c'e' e acquisti.
 
non compete con P100 e V100, almeno non in tutti gli ambiti.
è ottimo per basi piccole (INT8/FP16/FP32) riuscendo ad essere competitivo (80% delle prestazioni allo stesso costo energetico, ma ad un costo di 1/10), ma P100 computa linearmente fino a FP64 e V100 fino a FP128.
non si usano in tutti gli stessi campi, insomma.
AMD ha puntato alla AI, come Intel ha puntato al HPC scientific purpose, dove servono basi decisamente grandi (AVX512); nvidia stà nel mezzo ed è ad uso piu' generalistico, ma meno specifico (FP64 e FP128 sono di ordine finanziario/predittivo, anche se oggi si potrebbe fare con una rete neurale a base piccola).
il punto focale è pero' la crescita di mercato:
il primo, l'AI, ed il secondo, HPC SP (ma con lo stesso HW fai anche tutte le basi inferiori, fino a INT8, e con progressione lineare), sono quelli che crescono piu' rapidamente rispetto a quelli in cui si usano basi intermedie.
AMD ha dalla sua il costo, pero'.
a pari prezzo un server vega AI devasterebbe uno con AVX512 o V100, anche se consumerebbe tanto quanto va di piu' (ed è un fattore da considerare, in certi ambiti).
si parla di un settore, pero', in forte crescita verso le piccole potenze di calcolo, non sui datacenter.
non dico che saranno usate in AI dalla gente comune, ma in WS o piccoli centri di calcolo, dove l'economicità della soluzione ha la sua valenza.

Esattamente quel che sto dicendo, avendo un solo colpo in canna (un chip, Vega) e un competitor con tre già sparati (GP100, GP102, GP104) e uno in canna (V100) hanno mirato non al mercato più grande ma stabile su cui devi vincere un'inerzia enorme, ma su quello che è il più piccolo (quindi con inerzia inifinitamente inferiore) e dai margini di crescita più grandi (tripla cifra).
 
Boh, sì, anche a me pare strano, tant'è che visto tutto ipotizzavo intorno alla 1080Ti come prestazioni.

Ho fatto varie ipotesi per cui la RX possa andare significativamente di più della FE nel gaming, ma può pure essere che invece sia stata progettata così, mettendo tutto quel silicio a lavoro solo in altri mercati (machine learning) e usando invece solo una frazione del potenziale, nel gaming.
Possibilissimo. Non hanno fatto in maniera troppo diversa con i Ryzen in realtà, solo che qui la situazione è relativamente più semplice.

A questo punto io mi chiedo (domanda da 1 milione di dollari): una potenza di calcolo del genere (13 tflops mica sono noccioline) è possibile che venga sfruttata al 100% (o giu di lì) attraverso una buona programmazione dei driver oppure ci potrebbe essere qualche limite architetturale fare da collo di bottiglia?

comunque quoto lucusta, AMD sta puntando al settore dell'AI. Solo che qui è davvero davide contro golia, Nvidia è il leader assoluto del settore e ha ormai da tanti anni il monopolio grazie a tutto il supporto hardware e software CUDA. Chissà se AMD sta spingendo effettivamente lì la maggior parte delle risorse (ossia per fare qualcosa del genere) trascurando il gaming?

Resta il fatto che potevano evitare di creare tutto quest'hype fra il pubblico consumer se è effettivamente così.
 
Ultima modifica:
risposta da 2 soldi: si, potrebbero esserci decine di limiti architetturali, perchè oltre al puro modulo di calcolo quei chip necessitano di adeguata caches per data e istruzioni, e non è detto che un ambito ne richieda la stessa quantità dell'altro.
visto che c'è un sacco di parallelizzazione, anche la caches si moltiplica di conseguenza, e il tutto diventa grosso e piu' grosso... quindi il chip viene costruito mediando questi parametri a seconda dell'ambito di appartenenza a cui lo vuoi associare.
l'AI necessita di tanta caches? ni... si, ma non è imperativo... i giochi? fino ad ora ha aiutato parecchio, ma non saprei se si potrebbe farne a meno.

quindi siamo sempre al punto di partenza: chi è Vega?!?

senza una seria analisi prestazionale non lo sapremo nemmeno dopo che l'avranno presentata.

l'architettura è assai scostata dai canoni a cui si era abituati, e poi non l'hanno nemmeno descritta bene e approfonditamente, quindi tutto puo' essere come il contrario di tutto.

io, diffidente di natura, confido in un irrealistico complotto in cui AMD, per evitare fughe di notizie verso nvidia che le sfrutterebbe per addrizzare il tiro sulla prossima serie, abbia dato la classica "scatola di mattoni" agli AIB, e solo dopo che sarà sul mercato le toccherà con la pietra filosofare per farle diventare oro...
il dubbio viene, quando leggi che i bios saranno dati in mano agli AIB solo una settimana prima della presentazione...
cioè, gli AIB hanno il bios da RX da un paio di giorni, e usano i driver che abbiamo visto su FE... che ti viene da pensare, per tutto questo riserbo anche verso i tuoi patner produttivi?
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top