UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Ma quäle strategia! Se Amd avesse in mano qualcosa per sbaragliare Nvidia credi che non la metterebbe sul mercato? Al momento, escludendo vega e sperando che mantenga le promesse, non ha niente. Vuoi perché si è focalizzata sulle CPU facendo molto bene e vuoi perché non ha le capacità economiche per farlo. E soprattutto non credo che progettare una famiglia di GPU sia un giochetto. La tecnologia è quella, i marziani ancora non sono arrivati. Figurati

Inviato dal mio BLN-L21 utilizzando Tapatalk
Non so se stai dicendo a me visto che non mi hai taggato ma.. Non ho detto che Amd sta utilizzando questa strategia, ma che sta cercando di accaparrarsi un target ben preciso, e cioè gli utenti che ho descritto prima. Non sto dicendo che dall'inizio aveva già deciso una cosa del genere... ma (secondo me) in questo momento amd la scelta che ha fatto è questa, ovviamente secondo le proprie disponibilità finanziarie ecc. ecc.
Poi ovvio, se avesse un'architettura per sbaragliare il mercato in fatto di lungimiranza la farebbe uscire instant, non ho mai detto il contrario.
 
A prescindere dai budget o dalle strategie, sta di fatto che ultimamente AMD ha puntato sulla fascia mainstream e su quella entry con Polaris 1 e il successivo rebrand.
Ora con Vega punta alle fasce alta ed enthusiast.
Vedremo...
 
Io credo che Amd gliene possa fregare di meno della lungimiranza, ricordiamoci che è una azienda a scopo di lucro, che se potesse vorrebbe vedere le sue GPU cambiate ogni, a loro interessano i soldi. Il fatto che le VGA Amd migliorino col tempo non penso sia studiato. Si sono ritrovati xon architetture che necessitano tempo affinché vengano pienamente sfruttate e adottate, probabile che vivrà una seconda primavera tra qualche anno quando tutti.adotteranno dx12 e accorgimenti che favoriscono gcn, speriamo che Nvidia non resti a guardare e ne gioveremo solo noi consumatori con sana concorrenza e prezzi più bassi

Inviato dal mio BLN-L21 utilizzando Tapatalk
 
Io credo che Amd gliene possa fregare di meno della lungimiranza, ricordiamoci che è una azienda a scopo di lucro, che se potesse vorrebbe vedere le sue GPU cambiate ogni, a loro interessano i soldi. Il fatto che le VGA Amd migliorino col tempo non penso sia studiato. Si sono ritrovati con architetture che necessitano tempo affinché vengano pienamente sfruttate e adottate, probabile che vivrà una seconda primavera tra qualche anno quando tutti.adotteranno dx12 e accorgimenti che favoriscono gcn, speriamo che Nvidia non resti a guardare e ne gioveremo solo noi consumatori con sana concorrenza e prezzi più bassi

Inviato dal mio BLN-L21 utilizzando Tapatalk
Stai tranquillo dieffe che se amd non volesse più supportare le vecchie schede video potrebbe farlo tranquillamente, più o meno come fa la controparte...
 
Infatti poteva tranquillamente lasciare indietro chi ha 290, 390X, etc, quando é uscita Polaris. Ma comunque, potrebbe sempre iniziare ad imitare quelli di Santa Clara, chissá che al lancio di Vega non mi mandano in legacy la 480! :asd:
 
" data-source="post: 6284949" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">
Infatti poteva tranquillamente lasciare indietro chi ha 290, 390X, etc, quando é uscita Polaris. Ma comunque, potrebbe sempre iniziare ad imitare quelli di Santa Clara, chissá che al lancio di Vega non mi mandano in legacy la 480! :asd:
Con Vega 10 magari ancora no, ma q1/q2 con Vega 11 potrebbe anche essere
 
ottimizzare un gioco costa perchè comprende investire in programmazione. Ma tanto se i giochi vanno male ci siamo noi polli che investiamo in hardware per compensare, così sono felici le software house, chi produce hardware e chi ci rimette siamo noi poveri utenti :asd:
parlavo comunque solo di finezze architetturali.
tra quello che si vorrebbe fare, quello che si riesce a fare e quello che il mercato chiede realmente, ci passano 3 oceani.
 
Con Vega 10 magari ancora no, ma q1/q2 con Vega 11 potrebbe anche essere

credo che il vero cambio architetturale lo avremmo con Navi, e quindi anche il progressivo abbandono delle GNC... sviluppare i driver per un'architettura costa molto, farlo per una famiglia di chip, e affinando per ogni singolo chip meno, ma mantenere diverse architetture tutte in piedi... diventa eccessivo (è per questo che anche nvidia ha difficoltà a farlo).
 
credo che il vero cambio architetturale lo avremmo con Navi, e quindi anche il progressivo abbandono delle GNC... sviluppare i driver per un'architettura costa molto, farlo per una famiglia di chip, e affinando per ogni singolo chip meno, ma mantenere diverse architetture tutte in piedi... diventa eccessivo (è per questo che anche nvidia ha difficoltà a farlo).

ma come mai c'è tutta questo interesse verso navi? si sa qualcosa che potrà essere determinante, oltre ai 7nm?
 
credo che il vero cambio architetturale lo avremmo con Navi, e quindi anche il progressivo abbandono delle GNC... sviluppare i driver per un'architettura costa molto, farlo per una famiglia di chip, e affinando per ogni singolo chip meno, ma mantenere diverse architetture tutte in piedi... diventa eccessivo (è per questo che anche nvidia ha difficoltà a farlo).
allora so quando cambierò la mia 380 :asd:
 
" data-source="post: 6285733" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">
Quando , entro qualche mese, non avrai più giochi in uscita sulla tua Nintendo switch?

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
Ma non è che ora il panorama videoludico pc sia smagliante, almeno quello rimanente del 2017... :asd:

Inviato dal mio Redmi Note 2 utilizzando Tapatalk
 
Ma non è che ora il panorama videoludico pc sia smagliante, almeno quello rimanente del 2017... :asd:

Inviato dal mio Redmi Note 2 utilizzando Tapatalk
Si, però abbiamo sempre un palinsesto di 142599 giochi contro Mario rebrand nr. 352 e Zelda rebrand nr. 424 che offre Switch...

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
ne parlavamo un centinaio di pagine fa...
ad oggi il conto dei Tflops lo esegui moltiplicando le unità che hai a disposizione per la frequenza per un fattore 2, perché ogni unità sono ormai anni che può darti la possibilità di computare contemporaneamente 2 calcoli.
Vega potrebbe invece portare unità di calcolo che computano contemporaneamente 4 calcoli.

questa "speculazione" viene fuori dal basso TDP che inizialmente ci si aspettava per queste schede (225W) e per i TF dichiarati (13TF) e la rilevante dimensione del chip.
per ottenere, con questo processo produttivo, tale potenza di calcolo con un consumo così basso si giunti alla conclusione che in Vega abbiano portato ogni singolo SP da 2 a 4 vie.
AMD ti dichiara che il motore grafico gira fino a 1600mhz, ma non ti indica se la scheda ha la medesima frequenza su tutti i domini;
quindi le unità grafiche potrebbero essere clockate ben al di sotto di questo limite, convenientemente alla metà.
abbassare la frequenza della parte più consistente del chip ad un valore basso (metà dell'engine) consente di ottenere il miglior rapporto TF per watt (meno clockano, molta meno energia serve, ma molto meno); una polaris che girase a 800mhz invece che a 1266 consumerebbe meno della metà, non solo 2/3, come invece sarebbe il rapporto secco delle frequenze.
la questione è che un SP a 4 vie è grande il doppio di uno a 2 vie (conta il doppio delle sub unità di calcolo), quindi avrai lo stesso numero di SP, ma grandi il doppio.
ora, e conseguentemente, anche se girassero alla metà della frequenza, consumerebbero il doppio perché sono il doppio; la questione è che garantirebbero comunque piu' potenza di calcolo pur avendo un consumo comparabile.
Vega è un chippone, come lo era Fiji, ma stiamo confrontando 2 chip che hanno, nominalmente, processi produttivi di 1 a 4 piu' densi.
in effetti il FF 14nm GloFo è comparabile ad un 20nm planare, ma passiamo da 596mm^2 per 4096 SP a 28nm di Fiji a 4096 SP a 14nm (o 20, che dir si voglia) di Vega... di roba, dentro Vega, ce ne è un'infinità.
conta che Fiji a 14FF doveva avere una superficie di circa 300-350nm.
vero che dentro Vega abbiamo molte altre cose che prima non esistevano (l'HBCC, una sorta di L3), ma comunque è un chippone.
in pratica far operare gli SP, che sono le parti di calcolo e quindi piu' intensamente usate nel chip, alla metà del clock, mentre l'engine ad un clock doppio rispetto agli SP, tale da garantire la sufficiente prontezza per settarli e gestirli, quando, oltretutto, l'engine di un chip cosi' integrato è una parte relativamente piccola, è un modo per ottenere effettivamente diversi vantaggi in termini di potenza pura, consumo e soprattutto gestione (hai comunque "solo" 4096 SP, come prima).

vedendo i risultati di questi test sembra che Vega oggi giri solo come un 2 vie a piu' elevata frequenza rispetto a fiji, e che non stia sfruttando le 4 vie.
Guardando dirt rally, un gioco espressamente dx12 in cui le AMD possono esprimere tutto il loro potenziale, hai solo il 15% in piu' da Fuji, in TW3, gioco capace di usare 8 thread, ancora 16%; 3dmark siamo sul 22%.
logicamente la parte computazionale è molto densa, e solo la parte engine è stata lasciata piu' rada per ottenere frequenze maggiori;
quindi, se stai usando Vega, in quella situazione, come un semplice 2 Vie, la differenza su Fiji sarà esclusivamente dovuta alla massima frequenza che puoi raggiungere con 2 vie ad elevata densità d'integrazione, ossia 1200-1300mhz, e con il consumo di un 4 vie, pero'...
quando pero' lo userai a 4 vie potrai settare 800mhz sugli SP e ottenere il doppio del computo, quindi oltre il 50-60% rispetto a Fiji.

questo porterebbe Vega a 100 punti da una 1080 Ti in 3dmark, ossia a meno dell'8% delle prestazioni di questa (e visto che questa è una scheda che genera mediamente 5 fps in piu' dei 60fps in 4K, ossia l'8%, o meglio circa 65fps, Vega fa 60fps a 4K con gli stessi settaggi).

ma tutto questo è nulla se non rapportato al prezzo...
ora, il massimo lo abbiamo con 999$ della FE, che ha 16GB ed una scarsa diffusione...
la RX potrebbe stare a 550 euro, prezzo di una 1080, ed andare solo pochi fps meno di una 1080 Ti.

quindi non mi fascerei la testa, ed aspetterei...

rileggevo... cosa intendi per parte engine e parte computazionale? :)
 
ma come mai c'è tutta questo interesse verso navi? si sa qualcosa che potrà essere determinante, oltre ai 7nm?
più di un anno fa AMD ha depositato dei brevetti su architetture GPU di nuova concezione.
parlavano di una struttura delle pipeline non omogenea.
un calcolo finito necessita di essere processato da diverse unità base, che definiscono una pipeline di calcolo.
la differenza più marcata tra e architetture AMD e Nvidia consiste nell'esecuzione di questi calcoli;
un gruppo di queste unità forma un cluster.
se il calcolo da effettuare eccede un cluster, serve l'uso di un'altro cluster.
per continuare il calcolo su un'altro cluster impieghi una o più operazioni, da sommare a quelle di calcolo, impiegando quindi più tempo.
fino alle dx11 i calcoli avevano un numero più o meno fisso di operazioni da compiere, ed nvidia li eseguiva tutti in un cluster, mentre più giovane era GNC più passaggi si facevano, aggravando il calcolo da molte operazioni di spostamento.
con ac ed ace i calcoli non hanno più una lunghezza standard, ecco perché AMD ha vantaggio ad usare tali tecnologie, anche perché se il calcoli eccede un cluster ne devi usare un altro aggiungendo operazioni, ma se il calcolo non satura il cluster, lo devi comunque eseguire fino alla fine, e se il cluster é "lungo", per uscire dalla pipeline introduci l'attesa di tutti gli stadi che avanzano.
il brevetto consisteva nell'uso di cluster a diverso numero di unità, da solo 2 a gruppi di 16.
in questo modo si ha sempre un numero adeguato di unità che necessitano per il calcolo, senza sprechi.
per farlo, però, servono un numero di unità consistenti, perché non conviene associare tanti piccoli cluster quando i calcoli richiedono molti passaggi, e viceversa.
Navi dovrebbe garantire questo tipo di paradigma nella sua architettura.
tutto questo si può eseguire anche tramite vector processor, come i tensor core, in quanto il cluster base di processamento non é più monodimensionale (lunghezza), ma bidimensionale.
un vector processor si usa, però, kn un modo differente, troppo distante da come é scritto il codice oggi e troppo distante dalle API che si usano oggi ( non sono dx12, insomma); serve quindi un robusto layer d'interfaccia sotto forma di driver.
 
Pubblicità
Pubblicità
Indietro
Top