UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Considerato che, amd conta di soppiantare polaris già dal prossimo anno, quindi una nuova gamma con vega 11,12 e 20, e nvidia conta di far uscire gv104 entro il q1 2018, ne vedremo delle belle.
 
lì il problema è della fury, pero'... FHD e 4K li digerisce male rispetto a quanto non faccia a 1440p.
da una parte per la poca ram, dall'altra perchè la GPU piu' di quello non fà.
In verità le fury x hanno sempre dato il loro meglio in 4k, è li dove eguagliavano le 980 ti/titan x, che poi a meno di stra pompare gli aa, di problemi di vram non dovrebbe averne, già se fosse stato gta V o re7 sarebbe stato un altro discorso.
 
comunque, in tutte le review della Vega Fe, non ho trovato un solo gioco in cui si testava questa nelle stesse condizioni delle due slide che ha mostrato AMD per la RX.
non riesco ad avere un riferimento gioco su gioco, setting su setting con la Fe... se li son studiati a tavolino quali valori mostrare?!

nulla.. dovremmo aspettare ancora i test indipendenti (sempre se lo siano) per avere una buon punto da cui capire.
 
Quoto lucusta, non sono l'unico a pensare che "paxwell" consumi poco principalmente perché NON sono GPU pensate per sfruttare al 100% api moderne come dx12 e vulkan, infatti Nvidia tenta ancora in tutti i modi di convincere attraverso il marketing e attraverso sodalizi con le più importanti SH (Ubisoft è una succursale di Nvidia che farcisce il codice dei suoi giochi con i vari gameworks hairworks etc, tutte librerie proprietarie insomma) di utilizzare ancora dx11 o al limite , come diceva lucusta giustamente, usare dx11 ma chiamarle dx12 (l'esempio di Battlefield 1 è emblematico).

Ma pochi possono comprendere che l'efficienza e bassi consumi di "paxwell" siano dovuti ad un hardware INCOMPLETO e in buona percentuale POCO ADEGUATO a girare sotto api grafiche più a basso livello.

Le Radeon sono meglio carrozzate, hanno "qualcos'altro" sul die che appunto serve a garantire migliori performance sotto librerie grafiche a basso livello (e non solo quelle).

Come diceva lucusta, alcuni sono curiosi (almeno coloro i quali di schede ne capiscono e soprattutto hanno capito cosa c'è DIETRO i consumi inferiori di paxwell rispetto a GCN) di vedere come si comporterebbero in termini di consumi ed efficienza le GeForce se fossero "equipaggiate" veramente per girare sotto dx12 o sotto vulkan.

Vega comunque, sembrerebbe puntare tutto o quasi sulla potenza bruta, è un carrarmato in confronto alle agili ma poco potenti paxwell.

Ma temo che (in base a quel che si sa ad ora) richieda driver e supporto software altamente specializzato e specifico. (Ancor più di quanto succede per Fiji che è una GPU peculiare che richiede supporto particolare).
In effetti non ci deve spaventare se consideriamo che da fine 2015 ovvero da quando è cominciata l'era Crimson il software AMD si è rivelato ottimo , ai livelli della concorrenza (se non superiore: Nvidia si sogna qualcosa come ReLive e Wattman).

In passato compravamo - io per primo - le schede pensando all'incompetenza di AMD lato driver (in epoca catalyst è stata pessima lato driver, non ha capito nulla in piena epoca dx9\dx11 ovvero periodo di indiscussa supremazia Kepler).
Ma adesso il vento è cambiato.

Poi aggiungiamo la possibilità di integrare una Radeon con un meraviglioso monitor freesync e allora questa Vega non vedo come non potrà rivelarsi un successo.
Però (si dice che...) consuma tanto, aspettiamo di capire perché, se perché ha potenza e cavalli sotto al cofano o perché hanno voluto pensare a destinarla anche ad altri usi (al limite, rendendola più flessibile) diversi dal gaming. :)

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
Ultima modifica:
A proposito:

We also asked AMD’s architects, including Mike Mantor, about whether DSBR was actually disabled in Vega: Frontier Edition or whether it was just a rumor. The architects loosely confirmed that tile-based rasterization was in fact disabled for Frontier Edition’s launch, which we think mostly aligns with statements about pushing the card out in time, and noted that DSBR will be enabled on both Vega FE and RX Vega on launch of RX Vega. We asked about expected performance or power consumption improvements, but were not given any specifics at this time. Wait for launch on that, though – we’ll get that information.

http://www.gamersnexus.net/news-pc/3004-rx-vega-64-and-vega-56-power-specs-price

insomma qualcosa in più pare che ci sarà rispetto a quello che abbiamo visto fin'ora. Forse per questo @lucusta non trovavi riscontri, riguardo al post di prima.
Poi, per la cronaca, non sono stati mica io a chiamare in causa volta, ma è stata AMD stessa in un video di qualche mese fa :asd:

altra cosa: ti chiedevi cosa ci fosse sotto al die, nonostante avesse lo stesso numero di cores, la stessa dimensione del die ma un pp più piccolo. E' possibile che per rendere possibile i calcoli in precisione dimezzata abbiano dovuto "estendere" in dimensione gli stream processor? Non vorrei dire cavolate ma sarebbe comunque in linea con il tuo pensiero riguardo l'elaborazione a 4 vie. Fra l'altro mi sembra di aver capito che il rapid-packed math riesce appunto a fare utilizzo del calcolo in FP16 nel gaming (che quindi darà un bel boost alle performance) e Far Cry 5 sarà un titolo a farne uso.
 
Ultima modifica:
c'e' qualcosa che non coincide tra quello mostrato su RX e quello che abbiamo visto su FE, ma ancora di piu' c'è se consideriamo quello che possiamo leggere sulle prestazioni di Rx e di vega in generale
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/7.html
stavo leggendo l'intera presentazione su techpowerup e... credo che questa scheda abbia bisogno di driver a parte per funzionare; la roba che hanno messo in quel chip è realmente tanta... ad usare tutte le peculiarità in un gioco, ti fa vedere cosa sono 13TF di potenza pura... ma di solito non succede questo, mettiamoci l'anima in pace.

stavo guardando anche la tecnologia del porting diretto da PS4 a PC... per vega (ma a questo punto anche per le altre GNC) basta esporre gli shader e passarli nel decodificatore, che hai il gioco per PC ottimizzato AMD.
+43% usando AMD Intrinsic rispetto alla black box library... accesso aperto e diretto all'ISA in uso per gli shader... ottimizzazioni sui porting, insomma... quelle vere, pero'.

poi ci sono delle slide che non capisco... tipo quella dell'efficienza s 3dmark e i 150W di VegaRX64... o i 220W di vegaRX220... chi o che sono questi valori?
non consumavano 300W?
 
tutte le 1070 e 1080 si comportano in questo modo... lo stock core voltage è quello che ti ho scritto ;)
qui la guida con i miei risultati specifici

Ottima guida, anche se sapevo già fare undervolt ho visto quell'utilissimo consiglio su come allineare tutti i puntini senza alzarli uno per uno, direi che è fondamentale saperlo per non sprecare tempo e pazienza!! :thanks:
 
Quoto lucusta, non sono l'unico a pensare che "paxwell" consumi poco principalmente perché NON sono GPU pensate per sfruttare al 100% api moderne come dx12 e vulkan, infatti Nvidia tenta ancora in tutti i modi di convincere attraverso il marketing e attraverso sodalizi con le più importanti SH (Ubisoft è una succursale di Nvidia che farcisce il codice dei suoi giochi con i vari gameworks hairworks etc, tutte librerie proprietarie insomma) di utilizzare ancora dx11 o al limite , come diceva lucusta giustamente, usare dx11 ma chiamarle dx12 (l'esempio di Battlefield 1 è emblematico).

Ubisoft è addirittura capace di fare un downgrade ad un suo gioco, da DX10.1 a DX10, causando una perdita di prestazioni nelle Radeon (le nVidia non sono mai state DX10.1) per fare contenta nVidia.
 
Nvidia con con Volta passerà alle DX12 (finalmente) allora si potremmo iniziare un nuovo modo di sfruttare le VGA e anche AMD ne guadagnerà parecchio suppongo

Aggiungo che le DX 10 sono durate 2/3 anni con le DX11 siamo ormai 9 ANNI...grazie nVidia per tutti questi miglioramenti tecnologici... :patpat:
 
Nvidia con con Volta passerà alle DX12 (finalmente) allora si potremmo iniziare un nuovo modo di sfruttare le VGA e anche AMD ne guadagnerà parecchio suppongo

Aggiungo che le DX 10 sono durate 2/3 anni con le DX11 siamo ormai 9 ANNI...grazie nVidia per tutti questi miglioramenti tecnologici... :patpat:
Ma io non penso sia totalmente colpa di nvidia, ma anche delle SH che secondo me cercano di tirare per le lunghe il più possibile le DX11 essendo molto più complicato sviluppare in DX12 :sisi:
 
Lucusta che cosa pensi quindi, c'è molto più di quanto è stato mostrato su queste Vega? Non sappiamo ancora quanto realmente tirano in game.
 
Lucusta che cosa pensi quindi, c'è molto più di quanto è stato mostrato su queste Vega?

C'è sicuramente molto più di quanto si vede con i giochi di ieri. Se i giochi di domani implementeranno quel che serve a veder sfruttato tutto il potenziale è però tutto da vedere e fortemente dipendente da cosa ci sarà su Volta (aka se anche Volta avrà le stesse feature, principalmente packed math e primitive shaders). Se Volta non include le stesse cose un po' perché nVidia non spingerà sulle implementazioni, ma invece frenerà come ha già fatto, magari a colpi di bonifico, e un po' perché implementare per una parte del mercato non p conveniente quando puoi implementare per tutto il mercato.
 
Pubblicità
Pubblicità
Indietro
Top