UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Oppure la scheda fa cagare in gaming con un chip di 484mmq2 e consumi quasi doppi alla 1080.
Magari hanno preferito concentrarsi lato pro.
È assurdo comunque. Per me c'è qualcosa che non va.. oppure hanno fatto un flop grosso quanto una casa. Speravo davvero in questa vega, avrei potuto cambiare la mia vecchia 380, ma mi sa che me la tengo fino a che non uscirà una nuova x80 T_T

Inviato dal mio ASUS_Z017D utilizzando Tapatalk
 
se era un flop avevano sempre il tempo e la possibilità di fare un polaris piu' grosso...
la 580 piano non va, ed il chip non è nemmeno tanto grande.
io vedo solo che quella scheda ha il clock piu' alto mai visto su una AMD...
 
se era un flop avevano sempre il tempo e la possibilità di fare un polaris piu' grosso...
la 580 piano non va, ed il chip non è nemmeno tanto grande.
io vedo solo che quella scheda ha il clock piu' alto mai visto su una AMD...
Ma allora perchè secondo te dai test non rende giustizia? I driver ancora non sono pronti... mi pare strano dare una scheda in mano a gente che sai che metterà i risultati su internet senza driver almeno decenti.
 
Ma allora perchè secondo te dai test non rende giustizia? I driver ancora non sono pronti... mi pare strano dare una scheda in mano a gente che sai che metterà i risultati su internet senza driver almeno decenti.

a questo punto puo' essere di tutto.
evitare spionaggio industriale (ossia se nvidia conosce prima le prestazioni di vega ha migliori possibilità di fare contromosse);
non sono ancora pronti? mi pare strano... si stanno girando i pollici da 3 mesi per le HBM2 che non gli forniscono
... a quest'ora avrebbero avuto i driver pronti per tutti i giochi dal 2007 ad oggi.

magari ci hanno visto male... purtroppo

puoi vederci male per 2 anni continuati?
poi, puo' essere veramente tutto... parliamo di un HW complesso, di cui non abbiamo nessun indice relativo...
per ora i test confermano che in molti giochi va come se fosse un fiji overclockato, però fare un fiji overclockato, ossia fare un die shrink di fiji e farlo andare di piu', avrebbe prodotto un chip da 310mm^2 netti, non da oltre 550, con 4 chip HBM2, ossia dai 16 ai 32GB di ram (tanti sono i canali di fiji) e, sicuramente, una fury a 1600mhz anche con solo 8GB di ram la 1080 reference se la mangiava, se ci mettiamo a guardare titoli come TR e BF1, ossia avremmo avuto le prestazioni che mostrano con questi leak, dove raggiunge 1080 degnamente overclockate.

ora, pero', ci avanzano 150-250mm^2 di chip.. che ci facciamo? li lasciamo?

con quello che avanza ci viene un altro chip tipo polaris.

quindi non mi starei tanto a grattare la testa.

se va come 1080 la mettono a 500 euro, se va di piu'... costerà di piu'.
a me sembra che 1080 sotto i 500 euro non ci siano.
 
Ultima modifica:
puoi vederci male per 2 anni continuati?
lo so, questa situazione ha davvero dell'assurdo, e poichè tutte le tue conclusioni sono condotte dalla logica ti viene difficile pensare questo scenario...

quindi dici che il ritardo dal Q1 è stato per la carenza di HBM2?

ma il problema non è se va come la 1080 (detto poco...) E' che consuma il doppio :asd:

comunque, non ne so davvero nulla riguardo questo: ma è possibile che abbiano fatto un chip tipo fiji ma con densità minore essendo i transistor più piccoli, senza introdurre nessuna novità effettiva? non so se mi spiego... Magari per dissipare più facilmente il calore, oppure per consentire di raggiungere frequenze più alte, non so...
 
lo so, questa situazione ha davvero dell'assurdo, e poichè tutte le tue conclusioni sono condotte dalla logica ti viene difficile pensare questo scenario...

quindi dici che il ritardo dal Q1 è stato per la carenza di HBM2?

ma il problema non è se va come la 1080 (detto poco...) E' che consuma il doppio :asd:

comunque, non ne so davvero nulla riguardo questo: ma è possibile che abbiano fatto un chip tipo fiji ma con densità minore essendo i transistor più piccoli, senza introdurre nessuna novità effettiva? non so se mi spiego... Magari per dissipare più facilmente il calore, oppure per consentire di raggiungere frequenze più alte, non so...

ma, vedi, il consumo dipende dallo scenario d'uso.
un chip che deve lavorare al massimo per riuscire a calcolare una tipologia di codice consuma il massimo (e dentro Vega ci sono un sacco di transistors), ma anche se si usa solo una parte del chip questo consuma tanto... il resto dei transistors, anche se non generano risultati, comunque clockano alla stessa frequenza (è quello che avviene nei nuovi chip multicore).
quindi anche il consumo è difficile da capire, se non relazionato ad una proporzionale prestazione computazionale.
consuma tanto perchè deve emulare un tipo di architettura diversa, o consuma tanto perchè solo parte dei transistors sono utilizzati per produrre lavoro utile?

per confronto prendiamo una 580 al massimo delle sue possibilità, ossia sui 1600mhz.
a questa frequenza le 580 spremute al massimo sono prossime ai 250W.
di questi 250W almeno 60 sono per le ram, quindi il chip richiede 190W per 1600mhz e 5.7 miliardi di transistors.
per Vega si parla di 15 miliardi di transistors.
quindi 190W x 15 / 5.7 = 500w, piu' 30-50 di ram, siamo a... 530-550W!!
ti ricordo che polaris è da 232mm^2 per 5.7 miliardi di transistors, vega dovrebbe essere da 610mm^2 per avere la medesima densità... è pure piu' piccolo...
prestazionalmente, invece, sempre per conteggio transistors, siamo a 2.63 volte una 580..
prendiamo per buono questo valore e prendiamo 300W per il solo chip;
comparandolo con l'energia richiesta vediamo che 300*2.63/500=1.58.
Vega, per consumare 330-350W se avesse un'architettura simile a polaris, andrebbe 1.58 volte in piu'.
in graphic score la 580 a 1600mhz ottiene 17643 punti ( http://www.3dmark.com/fs/12564149 ), quindi vega dovrebbe essere, a 1600mhz, da 27.875 punti.
il miglior benchmark di una FE è fatto a 1632mhz, ossia il nostro indice arriverebbe addirittura a 28.433 punti, quando ne fa 23.200.

quindi, come vedi, i dati non collimano.
consuma troppo!
ha un'architettura con un IPC inferiore a polaris, visto che non esprime il medesimo potenziale?
ha driver non ottimizzati per questo lavoro, che decurtano quasi il 25% delle prestazioni?
perchè quelle prestazioni si rapportano a 4096 SP del tipo di polaris che viaggiano pero' a 1100mhz, non a 1600...

se prendiamo questa come frequenza di funzionamento, ma consideriamo un'altra metà dei transistors che clockano soltanto, non facendo altro, otteniamo:
500W di un ipotetico polaris grosso quanto vega diviso 4 (perchè ne vogliamo usare solo la metà dei transistors, e visto che i transistors hanno 2 comandi, di clock e di funzione, questi consumano tanto per il clock quanto per il funzionamento logico, quindi 2x2=4), otteniamo percio' 125W, moltiplichiamo per 2 per i transistors attivi otteniamo 250W, sommiamoci l'altra metà dei transistors che non sono attivi, ma clockano e consumano per 125W... otteniamo quindi 375W, portiamo il tutto da 1600mhz a 1100mhz, otteniamo 257W, sommiamoci 30-50W di ram, sono 287-307W.

come vedi anche in questo modo di funzionamento, ossia usare solo la metà dei transistors a 1100mhz, otteniamo un consumo che è piu' o meno quello rilevato sulla FE.
e, ti faccio notare, che in questo modo sia i transistors sia le prestazioni sono confacenti alle ipotesi.

lo ripeto un'altra volta:
Vega è proprio grande, e per ora a me sembra che lo stiano usando come un fiji in overclock a 1100-1200mhz, ossia con 4096 SP a 2 vie; il fatto è che 4096 SP a 2 vie producono meno di 9 miliardi di transistors, non 15.
vero che c'e' altra roba in Vega, ma è anche vero che ci sono diversi modi per ridurre il numero di transistors massimo, come quello di aumentare del doppio le vie di processamento (da 2 a 4) ma usarle a frequenza molto piu' bassa, accoppiandole con una logica piccola ma che gira al doppio della frequenza.

quindi, facciamo questa ulteriore ipotesi: 4096 a 4 vie, pari a 8192 SP, ma a 800mhz e non a 1600.

in effetti abbiamo calcolato che 15 miliardi di transistors a 1600 consumerebbero 500W (piu' 30-50 di ram), quindi a metà del clock consumerebbe 250W, ma sai meglio di me che lo stesso chip che clocka alla metà della frequenza consuma ben meno della meta... circa 1/3, in realtà... siamo a 167W di chip e 30-50 di ram, quindi dai 197 ai 217W... dichiaravano 225W.

quindi abbiamo diverse ipotesi, con ragionamenti del tutto differenti per natura, che producono gli stessi risultati.
ci sono delle incongruenze in quella di un disegno a 4096 SP a 2 vie piu' caches e coprocessore IMC, perchè il chip che genera sarebbe piu' piccolo di quello che abbiamo visto; ci sono domande sulla nuova architettura (che hanno messo a fare una L3 se poi non la usi?)...

insomma, prestazione per consumo non sembrano collimare in quello che mostrano, e solitamente si studiano soluzioni per migliorare, non peggiorare.

quindi io aspetto questa settimana, ancora fiducioso che un lavoro di 2 anni non puo' aver portato a prestazioni ottenibili in 3 mesi con un die shrink di un chip fuji grosso 3/5 di quello che ci stanno facendo vedere.
 
Oppure la scheda fa cagare in gaming con un chip di 484mmq2 e consumi quasi doppi alla 1080.
Magari hanno preferito concentrarsi lato pro.

E' del tutto possibile, d'altra parte ha circa gli stessi numeri grezzi (in flops) di un nvidia V100 da 815mm^2

Quello che sfugge ai più è che questo chip deve competere con GP100, GP102, GP104 e anche V100. In ambiti pro abbiamo già visto che in base al tipo di utilizzo va come GP102. In gaming (da vedere con il lancio della RX, ma per il momento prendiamo la FE) va come GP104. Nel machine learning, 16b, fa a pezzi GP100 ed è competitor di V100.

Se la situazione FE non verrà modificata sensibilmente dalla RX significherà che con il budget a disposizione per un chip che deve competere contro 4 diversi hanno scelto di puntare sul mercato con la maggior previsione di crescita (learning), invece che su quello in cui anche quando hanno fatto prodotti eccezionali non hanno comunque sfondato (gaming).
 
Ragazzi penso bisogna aspettare per bench ufficiali dei veri youtuber per iniziare a farsi i conti in tasca

che poi domanda, per chi gioca in full hd ed è soddisfatto con una 480/580 ha senso cambiare se non per la scimmia di avere l'ultimo prodotto amd?
 
Ragazzi penso bisogna aspettare per bench ufficiali dei veri youtuber per iniziare a farsi i conti in tasca

che poi domanda, per chi gioca in full hd ed è soddisfatto con una 480/580 ha senso cambiare se non per la scimmia di avere l'ultimo prodotto amd?
In full HD una simil 1080?
Ma anche no. Al massimo, se proprio la scimmia ti uccide, la versione cut. Ma anche in quel caso avrebbe poco senso(in base a che prestazioni ha?), aspetterei volta v106 l'anno prossimo
 
Ragazzi penso bisogna aspettare per bench ufficiali dei veri youtuber per iniziare a farsi i conti in tasca

che poi domanda, per chi gioca in full hd ed è soddisfatto con una 480/580 ha senso cambiare se non per la scimmia di avere l'ultimo prodotto amd?
Per me assolutamente no. La 480/580 fa egregiamente il suo lavoro in FHD Ultra 60Hz.
Forse se si parla di FHD 144Hz la cut se si posiziona sui livelli della 1070 potrebbe essere interessante.

Inviato da ASUS_Z00AD tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
Al più una simil 1070 ha senso in full hd 60Hz in prospettiva futura, e per il momento per menarci il più possibile con la grafica (vi garantisco che ci sono giochi molto pesanti :asd:). A buon prezzo non la disdegnerei, però la 1070 è sempre una scheda che fa gli 80fps in 1440p (io mediamente sono messo così) :)

@Tongol : in linea di massima si. Però in alcuni giochi con alcuni ritocchi secondo me ce la potrebbe fare (come ce la puo' fare la 1080) :sisi: al 90% però non sarebbe la "risoluzione di riferimento" come lo è per la 1080 Ti. Se uno a tutti i costi vuole il 4K e non vuole spendere una fortuna per la Ti potrebbe essere una soluzione.
 
Pubblicità
Pubblicità
Indietro
Top