UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
si i risultati sono quelli ma con un voltaggio di 1160 e 340watt di picco come consumi, per il daily mi tengo sui 1620/1050 per avere consumi accettabili che a conti fatti sono 50mhz di guadagno. per quello che riguarda le memorie per carita 100mhz sulle hbm2 sono manna dal cielo però 50mhz sul core mi sembrano pochi. poi oh per carità io mi baso sul paragone con le nvidia che salgono di brutto ma sono architetture diverse quindi il paragone è improprio.
si capisco il discorso consumi, io quello non lo calcolo nemmeno, e so che è sbagliato nella valutazione complessiva. anche io pensavo che sarebbe salita di più sul core ma comunque ritengo guadagni nell'ordine del 10% più che soddisfacenti. in questo senso le 56 sono molto più generose, quelle con il bios della 64 si avvicinano moltissimo, personalmente non lo farei su una custom, ma se si parla ad una 56 reference con il bios della 64 ed un'impianto a liquido penso che il guadagno prestazionale sia tale da giustificare la perdita della garanzia.

avete visto che si parla di vega a 7 nanometri? una scheda con 32gb di vram che pare sia meno performante (al momento) di una 64.... a che che utenza può essere indirizzata? pensavo che le vega a 7 nanometri sarebbero state delle schede da gaming di fascia media.
 
Da quanto ho letto non saranno in vendita nel mercato consumer in quanto verranno impiegate in ambiti particolari, ho visto l'articolo ieri se non sbaglio c'era scritto. Comunque sia una buona base di lavoro per la futura generazione
 
si i risultati sono quelli ma con un voltaggio di 1160 e 340watt di picco come consumi, per il daily mi tengo sui 1620/1050 per avere consumi accettabili che a conti fatti sono 50mhz di guadagno. per quello che riguarda le memorie per carita 100mhz sulle hbm2 sono manna dal cielo però 50mhz sul core mi sembrano pochi. poi oh per carità io mi baso sul paragone con le nvidia che salgono di brutto ma sono architetture diverse quindi il paragone è improprio.
si capisco il discorso consumi, io quello non lo calcolo nemmeno, e so che è sbagliato nella valutazione complessiva. anche io pensavo che sarebbe salita di più sul core ma comunque ritengo guadagni nell'ordine del 10% più che soddisfacenti. in questo senso le 56 sono molto più generose, quelle con il bios della 64 si avvicinano moltissimo, personalmente non lo farei su una custom, ma se si parla ad una 56 reference con il bios della 64 ed un'impianto a liquido penso che il guadagno prestazionale sia tale da giustificare la perdita della garanzia.

avete visto che si parla di vega a 7 nanometri? una scheda con 32gb di vram che pare sia meno performante (al momento) di una 64.... a che che utenza può essere indirizzata? pensavo che le vega a 7 nanometri sarebbero state delle schede da gaming di fascia media.
Non hai notato la cosa fondamentale:
Viene confrontata con una Vega da 1600mhz che fa qualcosina di più, ma con il clock a 1000mhz sulla Vega 20.
Praticamente se spari questa a 1600 potresti avere un +50% secco di performance ;)

Inviato dal mio MIX 2 utilizzando Tapatalk
 
Non hai notato la cosa fondamentale:
Viene confrontata con una Vega da 1600mhz che fa qualcosina di più, ma con il clock a 1000mhz sulla Vega 20.
Praticamente se spari questa a 1600 potresti avere un +50% secco di performance ;)

Inviato dal mio MIX 2 utilizzando Tapatalk
ma per quale motivo fanno questi confronti? intendo con clock così bassi, non hanno ancora driver pronti oppure ci possono essere altre ragioni?
 
Non hai notato la cosa fondamentale:
Viene confrontata con una Vega da 1600mhz che fa qualcosina di più, ma con il clock a 1000mhz sulla Vega 20.
Praticamente se spari questa a 1600 potresti avere un +50% secco di performance ;)

Inviato dal mio MIX 2 utilizzando Tapatalk
puoi linkarmi l'articolo? in quello che avevo letto ieri non si parlava di frequenze e prestazioni
 
Non hai notato la cosa fondamentale:
Viene confrontata con una Vega da 1600mhz che fa qualcosina di più, ma con il clock a 1000mhz sulla Vega 20.
Praticamente se spari questa a 1600 potresti avere un +50% secco di performance ;)

Inviato dal mio MIX 2 utilizzando Tapatalk
ma per quale motivo fanno questi confronti? intendo con clock così bassi, non hanno ancora driver pronti oppure ci possono essere altre ragioni?
È un sample d'ingegneria. Vai al link sotto che parlano anche dei precedenti.
Il clock è l'ultima cosa che provano
Non hai notato la cosa fondamentale:
Viene confrontata con una Vega da 1600mhz che fa qualcosina di più, ma con il clock a 1000mhz sulla Vega 20.
Praticamente se spari questa a 1600 potresti avere un +50% secco di performance ;)

Inviato dal mio MIX 2 utilizzando Tapatalk
puoi linkarmi l'articolo? in quello che avevo letto ieri non si parlava di frequenze e prestazioni
https://wccftech.com/amd-7nm-vega-20-32gb-gpu-3dmark-benchmark-leaked-up-to/

Inviato dal mio MIX 2 utilizzando Tapatalk
 
ma mi chiedo, se sono già così avanti con le 7 nanometri come mai sono arrivati così tardi con le 14? sembra quasi una cosa fatta in fretta per tamponare l'attesa, comunque se questa è una scheda per il machine learning (a sapere cosa pazzo vuol dire! :asd:) si esclude la possibilità di un'utilizzo gaming della stessa architettura o faranno anche qualcosa di dedicato? ad esempio una scheda di fascia media come si era sentito dire..
 
Il clock lasciatelo perdere, è sicuramente un errore di lettura. @TheBerserkRage non sono arrivati in ritardo per un problema di fonderie, ma di sviluppo/hbm/assemblaggio. Comunque l'architettura è la stessa, è solo un die-shrink. La destinazione d'uso cambierà in base ai driver.
 
ma mi chiedo, se sono già così avanti con le 7 nanometri come mai sono arrivati così tardi con le 14? sembra quasi una cosa fatta in fretta per tamponare l'attesa, comunque se questa è una scheda per il machine learning (a sapere cosa pazzo vuol dire! :asd:) si esclude la possibilità di un'utilizzo gaming della stessa architettura o faranno anche qualcosa di dedicato? ad esempio una scheda di fascia media come si era sentito dire..

Per quanto ne so GloFo ha fatto studi sulla fattibilità dei 10nm e ha trovato che non conveniva produrli (qualcuno ha parlato di CannonLake? :asd:) perchè non avrebbero dato incrementi di performance abbastanza utili, così da saltare direttamente al R&D dei 7nm che invece promettono molto bene. Dovrebbero essere più o meno al pari dei 10nm Intel comunque, che a loro volta dovrebbero essere (un po' opinione personale stando a quanto ho letto) non molto lontani degli ultimi 14nm Intel. Comunque le prime Vega 20 saranno dedicate appunto al Machine Learning e ai Data Center, insomma saranno schede appartenenti ad una fascia di prezzo (e quindi ad acquirenti) superiori a quelli destinati al settore consumer. Dovrebbe essere la "early production", ossia è più costoso produrre in massa chip e ne fanno pochi esemplari ad alto prezzo, similmente a come ha fatto nvidia con Volta. Ma poi perchè è arrivata tardi coi 14nm? Polaris è a 14nm e risale al 2016...

Il Machine Learning comunque è una branca dell'intelligenza artificiale (e dell'informatica) che è abbastanza "intensiva" dal punto di vista computazionale. Più precisamente, le GPU in genere sono adibite al Deep Learning (a sua volta sottoinsieme del Machine Learning :asd:) e alle Reti Neurali Convoluzionali (CNN). Queste risolvono problemi come classificazione del contenuto di immagini (nella foto c'è un gatto o c'è un cane?) oppure riconoscimento di oggetti all'interno delle immagini. Per farlo, ci si munisce di un "dataset di esempi" dove la rete neurale può apprendere come si svolge il compito assegnato "studiando" gli esempi. Questa attività è estremamente parallelizzabile e si presta molto bene all'architettura delle GPU (e molto male a quella delle GPU). Infatti in un certo senso è stata Nvidia con il CUDA a permettere gli studi sulle CNN. Per quanto ne so io AMD non è ancora in grado di proporre alternative decenti a nvidia, infatti... Non c'è un framework che utilizzi nativamente le AMD. Poi vabbè oltre al Deep Learning si può fare anche altro, il DL è l'esempio più palese...

Il clock lasciatelo perdere, è sicuramente un errore di lettura. @TheBerserkRage non sono arrivati in ritardo per un problema di fonderie, ma di sviluppo/hbm/assemblaggio. Comunque l'architettura è la stessa, è solo un die-shrink. La destinazione d'uso cambierà in base ai driver.

Non sono sicuro che i cambino i driver più di tanto in verità, AMD è abbastanza aperta per quanto ne so io. Sicuramente i 32gb di HBM2 sono cose che non vedremo mai (per fortuna) in fascia consumer.
 
Il clock lasciatelo perdere, è sicuramente un errore di lettura. @TheBerserkRage non sono arrivati in ritardo per un problema di fonderie, ma di sviluppo/hbm/assemblaggio. Comunque l'architettura è la stessa, è solo un die-shrink. La destinazione d'uso cambierà in base ai driver.
scusa ma devi capire che per me è quasi arabo, ho capito che sono architetture simili o uguali, altrimenti non si chiamerebbero vega.. giusto? quando si parla di nanometri so che sono cose molto piccole :asd: :lol: ad ogni modo nella ricerca dell'efficienza mi sembra che si rincorrano al ribasso, visto che le gpu a 14 nanometri sono appena uscite e già cominciano a parlare delle 7 un dubbio penso sia legittimo indipendentemente dalle motivazioni.
 
Per quanto ne so GloFo ha fatto studi sulla fattibilità dei 10nm e ha trovato che non conveniva produrli (qualcuno ha parlato di CannonLake? :asd:) perchè non avrebbero dato incrementi di performance abbastanza utili, così da saltare direttamente al R&D dei 7nm che invece promettono molto bene. Dovrebbero essere più o meno al pari dei 10nm Intel comunque, che a loro volta dovrebbero essere (un po' opinione personale stando a quanto ho letto) non molto lontani degli ultimi 14nm Intel. Comunque le prime Vega 20 saranno dedicate appunto al Machine Learning e ai Data Center, insomma saranno schede appartenenti ad una fascia di prezzo (e quindi ad acquirenti) superiori a quelli destinati al settore consumer. Dovrebbe essere la "early production", ossia è più costoso produrre in massa chip e ne fanno pochi esemplari ad alto prezzo, similmente a come ha fatto nvidia con Volta. Ma poi perchè è arrivata tardi coi 14nm? Polaris è a 14nm e risale al 2016...

Il Machine Learning comunque è una branca dell'intelligenza artificiale (e dell'informatica) che è abbastanza "intensiva" dal punto di vista computazionale. Più precisamente, le GPU in genere sono adibite al Deep Learning (a sua volta sottoinsieme del Machine Learning :asd:) e alle Reti Neurali Convoluzionali (CNN). Queste risolvono problemi come classificazione del contenuto di immagini (nella foto c'è un gatto o c'è un cane?) oppure riconoscimento di oggetti all'interno delle immagini. Per farlo, ci si munisce di un "dataset di esempi" dove la rete neurale può apprendere come si svolge il compito assegnato "studiando" gli esempi. Questa attività è estremamente parallelizzabile e si presta molto bene all'architettura delle GPU (e molto male a quella delle GPU). Infatti in un certo senso è stata Nvidia con il CUDA a permettere gli studi sulle CNN. Per quanto ne so io AMD non è ancora in grado di proporre alternative decenti a nvidia, infatti... Non c'è un framework che utilizzi nativamente le AMD. Poi vabbè oltre al Deep Learning si può fare anche altro, il DL è l'esempio più palese...



Non sono sicuro che i cambino i driver più di tanto in verità, AMD è abbastanza aperta per quanto ne so io. Sicuramente i 32gb di HBM2 sono cose che non vedremo mai (per fortuna) in fascia consumer.
avevo dimenticato che anche le polaris sono 14 nanometri.. :cav: comunque mi sembra di aver capito che 7 nanometri siano il limite fisico oltre il quale non si può scendere, cosa faranno dopo? ma poi 32 gb sono sicuramente di hbm2?
 
avevo dimenticato che anche le polaris sono 14 nanometri.. :cav: comunque mi sembra di aver capito che 7 nanometri siano il limite fisico oltre il quale non si può scendere, cosa faranno dopo? ma poi 32 gb sono sicuramente di hbm2?
Data la mancanza di alternative (che non siano solo su carta) probabilmente cercheranno di spingersi fino ai 2/3 nm. L'imc delle vega è per hbm, dubito che metteranno mano all'arch. per sostituirlo con uno per gddr6. Non avrebbe molto senso che l'azienda che le ha introdotte faccia marcia indietro.
 
Pubblicità
Pubblicità
Indietro
Top