UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Ste Vega non hanno senso allora se i giochi nativi in dx12 arriveranno fra un anno e mezzo/2, a quel punto usciranno le Navi, o Vega 2.0

Sent from my HTC One_M8 dual sim using Tapatalk
Bel punto di riflessione.
Consideriamo che GCN é pronta dal 2013 a far girare giochi con API a basso livello, sembra una barzelletta ma é cosí.
E nonostante si giochi da anni in trasferta per AMD (Nvidia gioca in casa con dx9/dx10/dx11) AMD da quando é cominciata l’epoca Crimson (cosí la chiamo, per delineare il punto di rottura rispetto alla precedente epoca in cui i Catalyst erano colpevoli delle scarse performance delle Radeon) se la sta giocando a viso aperto in termini di performance e, relativamente alle varie fasce di mercato in cui gareggia, talvolta supera la controparte. Polaris dai 300 euri a scendere é (era! poi il mining ha mandato tutto il mercato alla malora) la soluzione preferibile, non a caso. E in uno scenario con API grafiche a basso livello la 480 distruggerebbe la 1060, pur rimanendo complessivamente una spanna sopra in DX11 (in alcuni giochi comunque la 1060 e avanti ma siamo sempre al discorso di prima: sono quei giochi Nvidia oriented, dove il software viene ''confezionato'' da Nvidia prima di essere rilasciato, nei giochi agnostici la 480 la spunta 8 volte su 10, per dire).
 
Difatti la R9 290 che ho passato al mio amico ha vita lunga, ma forse neanche tanto lato driver

Sent from my HTC One_M8 dual sim using Tapatalk
 
Difatti la R9 290 che ho passato al mio amico ha vita lunga, ma forse neanche tanto lato driver

Sent from my HTC One_M8 dual sim using Tapatalk
Sicuramente ha battagliato dall’uscita con le top verdi, te lo sei chiesto il perché? la 680, scomparsa, la 780 idem, sono buone come fermacarte ormai. Ancora la 980 tiene botta ma in pratica la 290 se la gioca addirittura con la 980 e in alcuni giochi fa meglio.
 
Io dico che sta volta è uscita una scheda che è da beta tester, come performance è rimasta al palo di 8 mesi fa durante la presentazione di ryzen dove la si vedeva su doom fare un frame rate da 1080.
L’idea che mi sono fatto é la seguente:
1. Polaris V2 é inutile, dovevano destinare attenzioni e fondi su Vega.
2. Ryzen successo indiscusso e indiscutibile peró purtroppo il 2017 anno difficile: Ryzen e Vega, troppa carne al fuoco hanno dovuto un pó stringere i tempi. Ryzen gli é andata diciamo bene sin da subito, tutto liscio proprio. Vega, decisamente no.
 
" data-source="post: 6405641" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">
non sei d’accordo ma vai di fretta: Vega é ancora immatura, e non ci sono driver, vuoi dargli il tempo? Abbi bontá, non fare come il 95% degli stupdi che frequentano questo tipo di forum che pretendono la VGA bella pronta al D1, lo sai bene che questi prodotti non sono maturi mai al D1, soprattutto AMD é piú ''lenta'' (vedi Polaris, recente novitá in campo GPU da parte di AMD, quanto ha guadagnato per poi superare in alcuni giochi, la rivale 1060 in 2,3 mesi, sono fatti.).
cosa deve dimostrare Vega in DX12? In mezzo giorno? Non scherzare, ragiona.

Poi, come il cane che si morde la coda: non ci sono giochi che sfruttino a regime dx12 e che ne sfruttino tutte le features di calcolo, i vari BF1, ROTTR, hitman, anche Deus Ex MD (che tra l’altro é ottimizzato di sheetah) sono pagliacciate, hanno performance in DX12 talvolta inferiori o problemi di VRam, di framepacing etc.
L’unico gioco DX12 davvero fatto con criterio, lo stato dell’arte é gears of war 4, vai a vedere lí cosa succede...
I giochi citati io li ho tutti, so bene come girano.

Se queste capre di devs iniziassero a sviluppare seriamente (purtroppo le console... e le ''loro'' API che sono derivative dx11, non aiutano allo scopo) in dx12, lo scenario sarebbe completamente differente.

Ancora, la riluttanza (conclamata, é lapalissiano) a cambiare tecnologia software dipende unicamente dalle case HW che foraggiano le case SW. Cosí si mantiene l’equilibrio dell’industria dle pc gaming.
Non vado di fretta, però osservo giorno per giorno: se oggi voglio dare un giudizio la situazione non volge molto a favore di amd per i motivi che ti ho spiegato, e non sono nemmeno tanto propenso a parlare di longevità su queste vega essendo ancora parzialmente incognite.

Se domani esce un nuovo driver cercherò gli opportuni benchmark e miglioramenti, idem dopodomani :)

Certamente non sono come quei co....onazzi che commentano su youtube "AMD fail again Vega is shit" senza sapere che metà features sono disattivate. :asd:

Oppure il peggiore è stato "AMD shit because gtx 1080 ti does much better with less cores 3500 vs 4000"

Queste affermazioni stampate brevi, ridicole e superficiali fanno capire spesso dove stiamo finendo oggi...

Inviato dal mio Redmi Note 2 utilizzando Tapatalk
 
L’idea che mi sono fatto é la seguente:
1. Polaris V2 é inutile, dovevano destinare attenzioni e fondi su Vega.
2. Ryzen successo indiscusso e indiscutibile peró purtroppo il 2017 anno difficile: Ryzen e Vega, troppa carne al fuoco hanno dovuto un pó stringere i tempi. Ryzen gli é andata diciamo bene sin da subito, tutto liscio proprio. Vega, decisamente no.
Polaris v2 è inutile magari in ambito professionale, ma per uno che ci gioca era una scheda pronta e già con delle prestazioni di tutto rispetto al d1, ad oggi vega 64 è un 40% più prestante di una 580 facendo una media di titoli dx 11,12, opengl e vulkan.

Che poi in futuro vega possa allungare grazie alle fp16 e al nuovo rasterizer non ne dubito, ma dopo 8 mesi ben poco si è mosso, e anche nei titoli dove viaggia meglio(come in doom vulkan), stacca un po' gp104 andando un po' peggio di gp102, ed è un titolo dove le 480/580 si avvicinano molto alle 1070.

Poi mettiamoci in mezzo una disponibilità fasulla(perchè vega 56 ieri non era realmente disponibile in buone quantità) ed ecco anche prezzi fuori scala.
 
No, aspetta, frena, sei fuori strada. Le Radeon consumano di piú, oppure leggiamola cosí: le GeForce consumano di meno, per due motivi: facce della stessa medaglia
1. GCN é equipaggiata in un certo modo per dare il massimo sotto API grafiche a basso livello, e quindi consuma di piú.
2. Le GeForce post Kepler sono equipaggiate in un certo modo per contenere i consumi, quindi consumano di meno, ma non sono equipaggiate in hardware come lo sono le Radeon di pari fascia.

Sembra troppo sintetico, ovviamente il quadro é molto piú complesso ma fa capire che ognuna delle due aziende ha un suo tallone di Achille.
Se iniziano ad uscire giochi dx12 nel vero senso della parola non come quelle buffonate di BF1 o di Hitman o di ROTTR, ''Paxwell'' ne uscirebbe letteralmente con le ossa rotte.
Se continuano ancora a sviluppare con gli attuali (obsoleti ormai) motori, rimanendo sotto dx11, AMD sará sempre lí a inseguire perché, la dico facile: é come se consumasse di piú per NULLA, ok? Come applicare una forza maggiore ma il lavoro ottenuto é sempre quello.
Questo é quello che succede sotto dx11 per ciascuna Radeon, potenza inutilizzata perché il software non si avvale e non giova al tempo stesso alle architetture.

Poi i meriti di Nvidia, logicamente, finiscono dove iniziano i demeriti di AMD, questo é chiaro. Nvidia é una generazione avanti in termini di consumi, ma non é tutto oro ció che luccica.
non sei d’accordo ma vai di fretta: Vega é ancora immatura, e non ci sono driver, vuoi dargli il tempo? Abbi bontá, non fare come il 95% degli stupdi che frequentano questo tipo di forum che pretendono la VGA bella pronta al D1, lo sai bene che questi prodotti non sono maturi mai al D1, soprattutto AMD é piú ''lenta'' (vedi Polaris, recente novitá in campo GPU da parte di AMD, quanto ha guadagnato per poi superare in alcuni giochi, la rivale 1060 in 2,3 mesi, sono fatti.).
cosa deve dimostrare Vega in DX12? In mezzo giorno? Non scherzare, ragiona.

Poi, come il cane che si morde la coda: non ci sono giochi che sfruttino a regime dx12 e che ne sfruttino tutte le features di calcolo, i vari BF1, ROTTR, hitman, anche Deus Ex MD (che tra l’altro é ottimizzato di sheetah) sono pagliacciate, hanno performance in DX12 talvolta inferiori o problemi di VRam, di framepacing etc.
L’unico gioco DX12 davvero fatto con criterio, lo stato dell’arte é gears of war 4, vai a vedere lí cosa succede...
I giochi citati io li ho tutti, so bene come girano.

Se queste capre di devs iniziassero a sviluppare seriamente (purtroppo le console... e le ''loro'' API che sono derivative dx11, non aiutano allo scopo) in dx12, lo scenario sarebbe completamente differente.

Ancora, la riluttanza (conclamata, é lapalissiano) a cambiare tecnologia software dipende unicamente dalle case HW che foraggiano le case SW. Cosí si mantiene l’equilibrio dell’industria dle pc gaming.

ciao =) il discorso che fai deve essere visto in termini di confronto delle performance con i dati alla mano generazione vs generazione .secondo me qui Mikael84 ha dato una spiegazione sintetica e chiara del confronto architetturale radeon vs geforce (nel discorso si integrano anche i messaggi precedenti di locusta e Mikael84 che letti con il senno di poi del riassunto finale sono molto piu apprezzabili)


index.php

index.php

index.php
 
Ultima modifica:
Io dico che sta volta è uscita una scheda che è da beta tester, come performance è rimasta al palo di 8 mesi fa durante la presentazione di ryzen dove la si vedeva su doom fare un frame rate da 1080.
Quotone. Secondo me nemmeno gli importa troppo di entrare in maniera seriamente competitiva nel mercato e l'hanno capito, quindi hanno evitato concentrazione di risorse per sviluppare driver che non gli avrebbero comunque permesso di prendersi una fetta decente di mercato. Secondo me si stanno preparando il terreno per la prossima generazione, rinnovando il gcn con le aggiunte che conosciamo tutti.

Comunque, nel pro vega è una bomba :asd:

Inviato dal mio Redmi Note 2 utilizzando Tapatalk
 
Molti trascurano il discorso legato alla piena compatibilità con api grafiche a basso livello, in quest'ottica Pascal non garantisce alcuna longevità , a differenza di Vega, ce ne accorgeremo quando inizieranno ad uscire giochi sviluppati veramente in dx12, per esempio (finora dx12 non è mai stata implementata propriamente).
Pascal la puoi chiamare Maxwell su differente p.p., non dimentichiamo che fine hanno fatto 970 e 980 (spariscono dai radar quando si parla di dx12).
Vega è tecnologicamente una scheda nuova e avanzata rispetto a Paxwell, sebbene abbia il suo tallone di Achille nei consumi maggiori, questo è già emerso ufficialmente e bisogna conviverci (ricorrere all'undervolt è uno specchietto per le allodole).

Ma chiedetevi perché consuma di più , come tutte le Radeon, e chiedetevi perché Paxwell consuma meno, chi ne capisce di schede lo sa bene di che tipo di architetture stiamo parlando, come sono equipaggiate e che funzionalità offrono.
L'epoca dx11 volge al termine nonostante Nvidia cerchi in tutti i modi di stringere sodalizi con le case software (leggasi giochi e motori) per mascherare i limiti delle sue schede in uno scenario di utilizzo (vero) di api grafiche a basso livello.
Quando si entrerà con due piedi in epoca dx12 Nvidia non potrà garantirvi simili performance con architetture di questo tipo, sono architetture da epoca dx9\dx10\dx11. Non mi aspetto che tutti siano d'accordo (non tutti capiscono qualcosina di schede), ma sono dati di fatto.

Cosa voglio dire: io ora come ora non comprerei Pascal, seppure siano fantastiche ma dove? Nei giochi VECCHI, o recenti. In applicativi dx12 dove se ne sfruttino tutte le features ne uscirebbero ridimensionate. In questo senso, appunto, non spenderei 650 euri per una scheda che tra 18,24 mesi soffrirà quando usciranno (speriamo prima!) giochi seriamente sviluppati sotto dx12 o meglio ancora vulkan (ma in vulkan, purtroppo, ci conto poco).
Certo poi che l'utente Nvidia non pensa a nulla, tipicamente la sua GeForce non dura più di 12 mesi (il tempo che esca la successiva serie, insomma). Quei pochi , come me, che hanno avuto (purtroppo) una GeForce per almeno 24 mesi conoscono bene quanto siano "longeve" le GeForce.

Meglio spendere 500,550,600,650 per una GeForce dx11 compatibile ma che non è equipaggiata per l'avvenire, o meglio spenderne tanti (anche di meno magari) per schede equipaggiate per distaccarle nei prossimi mesi?

Chi ne capisce di schede ha una visione a 360 gradi e quindi sa bene che è un discorso attualissimo, quello legato alle api grafiche (ma è un discorso di natura architetturale legato schede stesse).

Infine, dico solo che saranno 5 anni che non si vedevano schede NUOVE, tecnologicamente. Vega è una scheda equipaggiata in maniera tale come mai si era visto prima.
Nvidia dalla sua ha tagliato i consumi dopo Kepler, un successo indiscusso, ma a quale prezzo? Deve pagare dazio e vedremo con Volta come farà a tirarsi fuori da questa situazione, come diceva qualcuno altro pagine addietro, sono curioso di vedere come farà a contenere i consumi e contemporaneamente creare schede veramente funzionali a sfruttare api grafiche a basso livello.
Si usano ancora motori del secolo scorso, giochi ancora in dx11.0 al massimo in dx11.1, in tutto questo scenario "Paxwell" può fare la voce grossa, ma l'epoca dx11 e l'epoca dei motori e dei giochi che sfruttano al massimo un quad core volge al termine. Intel già ne sa qualcosa.
È sempre il software a decretare il successo dell'hardware... La dura legge dell'informatica.
In questo momento in un universo parallelo la gente gioca alla beta di Destiny 2 , anziché brandizzato Nvidia è brandizzato AMD e anziché gameworks c'è della roba AMD e magari gira sotto Mantle :asd:
Chi comanda il mercato si fa il software su misura, e molti di voi questo non lo hanno capito , non hanno ancora capito che Nvidia fa i giochi , i tripla A (Ubisoft su tutti, è una succursale Nvidia, i giochi Ubisoft devono prima essere esaminati da Nvidia, che li infarcisce di gameworks prima che siano rilasciati sul mercato).
Gli anni da leader del mercato hanno consentito a Nvidia di poter estendere il periodo vitale di dx11, e la sua influenza (leggasi soldi e marketing) le ha consentito di fare molta propaganda con i vari gameworks hairworks etc, introducendo queste cose in un gioco (io le chiamo già da quando ero verde, stupidaggini, ma è un pensiero personale) consente di minare le performance delle Radeon e al contempo fa propaganda: il ragazzino i il tifoso legge il brand Nvidia nel menu opzioni grafiche e logicamente (in base alla sua logica infantile, o da tifoso, appunto) cosa fa? Ovvio che andrà a comprare una GeForce per poter godere appieno di gameworks...


Inviato dal mio Lenovo K53a48 utilizzando Tapatalk


il discorso fila, ma tra 18-24 mesi c'e' Navi, ed intanto giochi.
è una questione di tempo:
se non sono sul mercato per settembre, per il back to school, e con il giusto prezzo, disponibilità e prestazioni (ossia con uno street price come da MPSR e almeno il 15% in piu' di prestazioni, quantomeno per la 64), hanno un'altra volta perso il treno.
hai ragione sulle API, ma se non hanno mercato nessuno sviluppa su una nicchia... al massimo si concentrano per alleggerire il codice già fatto.
poi, sarà che oggi sono polemico...

l'architettura c'e', ma ci vuole la cosi' detta killer app, e il miner non lo è (speriamo in scoprio, che muovesse un po' le acque).

PS:
approposito quando esce? che ne voglio dar euna alla bimba
 
Ultima modifica:
Io ho ancora due mesetti da poter aspettare prima di aggiornare che tanto tra settembre e ottobre non avrei nemmeno tempo di giocare e una Fiji overclockata non la voglio piuttosto aspetto ancora (la futura fascia media?), ma spero che tra 2 mesi vada al massimo o quasi del potenziale, comunque punto a Vega 56.

ps.
nel 2018 è lecito aspettarsi un nuovo chip di fascia media?
stordita.gif

potrei anche aspettare questo invece di Vega56

mhm... un refresh?
2018 ci saranno i 7nm, quindi il top di gamma verrà spostato su quella linea (ma è limitata in produzione, per ora).
si liberano slot sulla 14nm...
Vegare tutte?
no
magari prendere un po' di tecnologia (usar eil polaris che c'e' nelle console, ad esempio), ma tutta quella roba, nel mainstrem è realmente tanta... parliamo di un sacco di chaces e moduli del tutto nuovi.
credo che la nuova gen media sarà su 7nm (almeno 2019), ma a quel punto uno si aspettta una potenza tipo 56 (quindi un die shrink).
 
In materia non ci capisco un H ma esiste un principio base che regola il mondo del mercato. Se io sono una multinazionale, l'unica che può competere con la rivale che sta al vertice e lentamente sto affondando, non cerco di restare a galla contando solo sulla pubblicità, hype autoindotto dai silenzi e dalle slide o mantenermi col mining che è un fenomeno momentaneo ed imprevedibile. Cercherò di fare un prodotto che sia all'altezza e competitivo ed ovviamente so bene che se creo hype e non mantengo le promesse esco dal settore... quindi il punto sta li. Possono essere mai così folli da proporre un prodotto che consuma quasi il doppio senza superarlo nettamente? Non credo proprio quindi sono convinto che nei mesi a seguire ne vedremo delle belle o almeno lo spero anche perché la politica Nvidia non mi piace affatto ( vedasi ultima release per le titan che addirittura ne triplica le potenzialità). I miei soldi cerco di non darli a chi mi prova a pijarmi per il ( ( | anche perché se sotto la carrozzeria non ci sono i cavalli, i drivers non fanno tutta quella miglioria quindi perché castrarmi una scheda che poi non è manco regalata. L'unica verità è che tocca attendere e mi aspetto anche che col cambio di partnership, correranno nuove voci dove alcune daranno per migliori le memorie prodotte dal vecchio partner ed altre faranno il contrario con conseguente caccia alle streghe. Intanto il thread raggiunge dimensioni colossali

Inviato dal mio SM-G935F utilizzando Tapatalk

bhè, la questione Titan ha impressionato solo gli inconsapevoli.
il chip è il medesimo GP102 (si, un po' tagliato e senza il doppio della ram, ma è uguale), quindi se andava a meno della metà era solo ottimizzazione driver.
in quel contesto stonava pero' il consumo, che era uguale all'uso gaming, quando, in realtà, si usano meno della metà delle risorse (e lo hanno fatto per tagliare l'overclock in ambiente PRO, che in quel setting avrebbe consumato la metà e garantito i 1900 anche sulle titan).
 
Polaris v2 è inutile magari in ambito professionale, ma per uno che ci gioca era una scheda pronta e già con delle prestazioni di tutto rispetto al d1, ad oggi vega 64 è un 40% più prestante di una 580 facendo una media di titoli dx 11,12, opengl e vulkan.

Che poi in futuro vega possa allungare grazie alle fp16 e al nuovo rasterizer non ne dubito, ma dopo 8 mesi ben poco si è mosso, e anche nei titoli dove viaggia meglio(come in doom vulkan), stacca un po' gp104 andando un po' peggio di gp102, ed è un titolo dove le 480/580 si avvicinano molto alle 1070.

Poi mettiamoci in mezzo una disponibilità fasulla(perchè vega 56 ieri non era realmente disponibile in buone quantità) ed ecco anche prezzi fuori scala.
V2 inutile assolutamente, avevi già V1 che vendeva bene e che era anche convincente sui consumi , per la prima volta AMD aveva una scheda poco energivora, ma è riuscita per soli 3 fps in più a rilasciare 580 che sono dei forni , conosco ragazzi qualcuno anche qui del forum che ha dato via le 580 perché sono dei forni (l'efficienza della 480 era andata a farsi benedire).
Per soli 3 fps (3 per dire) hanno rilasciato dei forni, Polaris V2 è assoluto fallimento, non c'è proprio nulla di buono, nessuna miglioria, nessun affinamento dell'architettura, nulla di tutto ciò.
Chiedilo agli utenti che hanno avuto problemi di temperature e di natura energetica con le 580 (schede, le custom, intendo, da 200+ watt per due o tre miseri FPS sulle 480 custom).

Ecco perché , alla luce di tutto ciò, avrebbero dovuto concentrarsi , buttarsi con anima e corpo , nel progetto Vega senza disperdere energie , attenzioni e fondi in un inutile e controproducente lancio di Polaris V2.

Aldilà della piega che ha poi assunto il mercato con la mania del mining, le 470 e 480 vendevano alla grande, e dominavano la fascia mainstream soprattutto con prezzi buonissimi prima della "crisi".

Le 580 e le 570 hanno venduto poco perché semplicemente sono schede che non voleva nessuno, schede che nessuno stava aspettando.
Stesso discorso per la ancora più inutile 1060 con memorie maggiorate a +1000 MHz effettivi (per avere 1 massimo 2 fps in più , tutte cose ottenibili manualmente aprendo Afterburner.... Stendiamo un velo pietoso).

La scheda pronta ce l’avevi giá, tu utente-giocatore-consumatore, ed era bella compatta, fresca, e venduta a prezzi competitivi : per 260 euri ti portavi a casa la Gaming X da 8 GB, la migliore 480.
Poi il lancio delle 500 (prima che il mining iniziasse a far razzia delle Polaris) ha scombussolato , ancora, gli equilibri consolidati nel corso dei mesi, AMD ha chiesto per quelle schede (non so se AMD o i partner AIB o gli shop, ma tant’é) mediamente 25-30 euri in piú e logicamente c’é stato malcontento degli utenti.

9 utenti su 10 hanno continuato a comprare e a cercare 470/480 anziché 570/580 che erano palesemente troppo energivore (Polaris ci aveva giá abituati bene, schede da massimo 150 W per performance di tutto rispetto a 1080p e in qualche gioco performance discrete a 1440p) e sovraprezzate.

Davvero una serie che non doveva vedere la luce del sole (Ma é certo , assodato, che era tutto pianificato da parte di AMD, era giá prevista la seconda ondata di Polaris).

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
Ultima modifica:
" data-source="post: 6405641" class="bbCodeBlock bbCodeBlock--expandable bbCodeBlock--quote js-expandWatch">
Abbi bontá, non fare come il 95% degli stupdi che frequentano questo tipo di forum che pretendono la VGA bella pronta al D1, lo sai bene che questi prodotti non sono maturi mai al D1, soprattutto AMD é piú ''lenta'' .

LOL, e poi sono gli altri ad essere i fan boy. Ho visto i mod di questo forum redarguire per molto meno ultimamente. Se per te è normale uscire con un ritardo biblico con un prodotto che è veramente da beta tester, per quante potenzialità possa avere, allora sono contento di essere stupido.
Quoto tutto il discorso del Nabbo di turno.

Inviato dal mio ASUS_Z010D utilizzando Tapatalk
 
Pubblicità
Pubblicità
Indietro
Top