UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
nn044ye73ycz.png

Non so se qualcuno l'avesse già postata.
 
Fiji shrinkato non sarà, però mi sembra che lato ipc siamo rimasti a quei livelli, o poco sopra.
In teoria dovrebbe essere migliorata anche la delta color, che su polaris arriva sui 30/40%, mentre con maxwell è più sul 70%, un discreto margine di miglioramento, nonostante abbia anche le hbm 2 tutto fa brodo, soprattutto quando arrivi in 4k.
te lo ripeto, dipende per cosa e come sono stati usati tutti quei transistors, per quale scopo.
tralasciando nuovamente il discorso Pro, ma lato Gaming se guardi sui minimo sembra sia stato fatti un miracolo dalle dichiarazioni, una muova era informatica.
Vedremo le review.
 
te lo ripeto, dipende per cosa e come sono stati usati tutti quei transistors, per quale scopo.
tralasciando nuovamente il discorso Pro, ma lato Gaming se guardi sui minimo sembra sia stato fatti un miracolo dalle dichiarazioni, una muova era informatica.
Vedremo le review.
Ah c'è anche caso che sia il ryzen delle gpu come dicono su bits, staremo a vedere.
 
io aspetto l'analisi di @lucusta . :)

poco e nulla.. sto cercando i giochi che c'erano nelle slide di HWupgrade per vedere come andava FE di minimo alll 1% su quelli, ma sembra che AMD abbia usato tutto all'infuori di quello testato con FE... devo andare un po' a scartabellare in giro.

comunque quelli sono risultati minimi all'1%, che indicano quanto possa essere efficiente su un monitor Freesync, non sono le prestazioni massime.
altra cosa per il software... si, c'e' bisogno di parecchio supporto software su questa scheda, e si puo' guardare quanto guadagni dall'uso dell''HBC su haven... 7% non sono uno scherzo per aver spuntato una crocietta su un configuratore del driver....
ma a quanti giochi puo' essere applicata?

è difficile per ora dire che cosa ci hanno mostrato.
vedo dati impressionanti (48MB di caches, L2 da 4MB!), vedo numeri strani;
solo a guardare cosa potrebbe fare la paginazione dell'HBC fa capire che le prestazioni di fury non sono minimamente paragonabili (questa a 4GB che ogni volta devono essere ben gestite sui driver, perchè partiziona per funzione, mentre RX Vega spezzetta in singole pagine e la usa tutta, e lo puo' fare in modo dinamico).
ci sono delle incongruenze mostruose:
http://www.hwupgrade.it/articoli/skvideo/4977/radeon_rx_vega_slide_5b.jpg
in BF1, nel range 48-100hz, i minimi di fury e vega sono uguali e loro hanno usato BF1 per confrontarlo ad una 1080; guardi invece l'altra slide, che probabilmente si riferisce ai 4K con range 40-60, e questa scheda fà l'80% dei frame minimi rispetto a un monitor che probabilmente è 1440p...

insomma, ancora hanno detto tutto e nulla, come si va avanti da mesi...
 
E bè, dopo "Poor Volta" e con quel consumo e con quel chip penso che sia abbastanza lecito...

io, in effetti, ancora non ho capito perchè la gente chiama in causa Volta.
qui stiamo discutendo su una scheda che hanno ufficialmente presentato ieri e di cui ancora non ci stiamo raccapezzando sui dati, e la gente parla di un'architettura nvidia senza nemmeno avere una, e dico una sola, notizia certa sulla prossima generazione che farà nvidia, pensando che andrà di piu', consumerà meno e bla bla bla bla...

l'unica cosa che posso pensare su Volta è che se nvidia vuole mantenere un buon rapporto tra prestazioni/consumo e dimensione del chip, oltre a farla realmente DX12 questa volta (non come Pascal, che costringe a fare i giochi ancora in DX11 per poi chiamarli DX12), è che devono aspettare il mainstrem per i 12nm TMSC, ossia che diventi sfruttabile in elevata produzione, perchè per ora c'e' una mezza linea su quel PP ed è, forse, occupata da un padellone da 815mm^2 che non avrà nulla in comune con la tecnologia che useranno per il gaming se non il nome.
i 10nm non sono adatti alle GPU e, soprattutto, per ora quelle due linee sono del tutto prenotate sugli slot produttivi, almeno per i prossimi 9 mesi.
i 12nm saranno in produzione tra 6 mesi, nel 2018, ma per i primi prodotti, e si parla di quelli altamente remunerativi, non di GPU da 100 euro al chip; ci vorrano almeno 9 mesi per vedere qualche prodotto mainstream.
poi, al di là di qualsiasi considerazione sulle possibilità produttive, sulle architetture si apre un vespaio: i tensor core non sono per i giochi, almeno non per quelli di questo decennio.
proprio non ci fai nulla con un vector processor se non programmi esplicitamente per questo, e V100, unico esempio di architettura Volta, è solo tensor core, mentre oggi nessuno scrive giochi che non si possono usare senza un determinato set di API.
Volta consumer probabilmente ricalcherà pascal abbozzando una maggiore segmentazione delle pipeline, ma... sempre della stessa cosa parliamo, come tra maxwell e Pascal.
se non hai il supporto del PP per integrare piu' roba nello stesso spazio, riuscendo a consumare almeno uguale, sei in perdita prestazionale.
se integrare una maggiore segmentazione mi porta via il 10/25% di spazio in piu', oggi, con questi giochi che non sono DX12 che solo nel nome, significa dover fare un chip a 12nm delle stesse dimensioni di quello a 16nm, ma che alla fine consuma uguale e và uguale.

in pratica se fanno un Volta per gaming adatto alle DX12 vere, perdono il vantaggio di efficienza e prestazioni su AMD, che già usa le DX12 e fatica a bestia per convertirle in DX12 di nome ma non di fatto e DX11, perchè ci sono 2 o 3 giochi che vanno meglio con quelle API, e sono quelli su cui le AMD fanno sentire prepotentemente la loro potenza computazionale.
significa che in DX11, pur avendo una scheda piu' potente, vanno uguale.

il salto dimensionale tra 12 e 16nm non è cosi' pesante come è stato tra i 28nm planari ed i 16nm FF; non riesce a garantire, insomma, un tale guadagno sui parametri per avere chip della stessa dimensione con un numero di transistor maggiore ed un consumo uguale usando da una parte DX11 e dall'altra DX12.
è il cambio di API che appesantisce le prestazioni pure, ma è pur vero che nvidia non puo' piu' posticipare sulle API, sennò si vedrà man mano sciamare le prestazioni dalle mani.
a meno che nvidia non decide di svincolarsi dalla dimensione media dei suoi chip, proponendo un chip del 30% piu' grande, e con un consumo del 30% superiore, prestazioni in piu' è ben difficile vederne anche con la riduzione da 16 a 12nm.
quindi, Poor Volta, perchè se te lo fanno pagare uguale, gli costerà di piu' e non potranno certo binnare i chip, se invece li binnano dovranno buttare chip e fartelo pagare ancora piu' di ora.

l'ho già detto da tempo: sono curioso di vedere come Nvidia riesce a tirarsi indietro dal vicolo cieco che si è lei stessa creata con Pascal, potente piccolo e che consuma poco, ma con le API sbagliate.
 
avrebbe avuto lo stesso limite delle memorie della Fury però... diciamo un fail portare una gpu stile 1080 con solo 4GB di memoria video dedicata

secondo me dovevano fare una polaretta con GDDR5X pompata



tutte le 1070 e 1080 si comportano in questo modo... lo stock core voltage è quello che ti ho scritto ;)
qui la guida con i miei risultati specifici

Ma anche le 480 partivano alte eh, sopratutto inizialmente
oggi le HBM1 le fanno anche da 4GB a chip... ti sarebbero bastati 16GB a 512GB/s?
per il costo, lasciamo un velo pietoso...
 
Detto tra noi, i 12 nm sono più dei 16 sviluppati su misura per le gtx, non è che sia un 12 vero e proprio, giusto per non sfalsare troppo il rapporto tra le dimensioni di gp100 realizzato con i 16 e gv100 realizzato con i 12 ffn.
 
nn044ye73ycz.png

Non so se qualcuno l'avesse già postata.
tu conta che nella successiva slide, a 1440p (visto che si tratta di monitor freesync con un range di frequenze tra 48 e 100hz) sia fury x che volta hanno lo stesso minimo.
se il minimo è uguale, ed i medi sono quelli, di massimo stà scheda spara 200fps... nemmeno fury X, su certi giochi, aveva un gap tra massimo e minimo così elevato, all'inizio della sua carriera...
son queste le incongruenze che non riesco ancora a decifrare.
vai a vedere BF1 in ultra 4K ha come minimo 47, ossia piu' del medio della fury X.... mantiene un frame rate tra medio e minimo con un gap dell'85%...
poi i minimi in DX12 su BF1 sono tutto un'altro paio di maniche... sono spike dati dal caricamento, per una gestione della memoria da far pensare ad una scarsa ottimizzazione (insomma, giusto per dire che l'avevano fatto anche DX12).
 
te lo ripeto, dipende per cosa e come sono stati usati tutti quei transistors, per quale scopo.
tralasciando nuovamente il discorso Pro, ma lato Gaming se guardi sui minimo sembra sia stato fatti un miracolo dalle dichiarazioni, una muova era informatica.
Vedremo le review.

guarda, se minimamente hanno usato tutta quella caches, stà scheda le ram le usa solo per movimentare dal PCIe.
dovrebbe essere considerevolmente piu' reattiva non solo di fury X con le HBM, ma della quasi totalità delle schede.
sarei curioso di vedere come gira su 3Dmark graphic test 2... quello è un test che accentua la latenza sulle ram.

a naso dovrebbe avere andamenti piatti del frame rate, sempre se il gioco è ben bilanciato (e non come BF1 dove vedi la ritmica del caricamento dati, che generano minimi su qualsiasi scheda, danno immensamente fastidio e da cui si estrapolano dati forvianti perchè non sono medie ponderate, ma medie aritmetiche)...
 
tu conta che nella successiva slide, a 1440p (visto che si tratta di monitor freesync con un range di frequenze tra 48 e 100hz) sia fury x che volta hanno lo stesso minimo.
se il minimo è uguale, ed i medi sono quelli, di massimo stà scheda spara 200fps... nemmeno fury X, su certi giochi, aveva un gap tra massimo e minimo così elevato, all'inizio della sua carriera...
son queste le incongruenze che non riesco ancora a decifrare.
vai a vedere BF1 in ultra 4K ha come minimo 47, ossia piu' del medio della fury X.... mantiene un frame rate tra medio e minimo con un gap dell'85%...
poi i minimi in DX12 su BF1 sono tutto un'altro paio di maniche... sono spike dati dal caricamento, per una gestione della memoria da far pensare ad una scarsa ottimizzazione (insomma, giusto per dire che l'avevano fatto anche DX12).
Adesso bisogna aspettare giochi vega ready, bf1 non mi sembra il gioco più adatto per benchare in dx 12, mostra delle incongruenze di performance tra le varie dx notevoli anche tra le radeon, che sembrano andare meglio in dx 11 su quel gioco.
Penso che un confronto fury x/vega sarebbe da farlo su doom con le vulkan piuttosto che in dx 12, visto che vulkan non ha un supporto frammentato rispetto alle dx 12 che ha diverse tier, possiamo dire che delle 7970 o 680 siano dx 12 ready, ma che non abbiano lo stesso supporto delle pascal/gcn di oggi.
 
Detto tra noi, i 12 nm sono più dei 16 sviluppati su misura per le gtx, non è che sia un 12 vero e proprio, giusto per non sfalsare troppo il rapporto tra le dimensioni di gp100 realizzato con i 16 e gv100 realizzato con i 12 ffn.
V100 ha 21.1 miliardi su 815mm^2, P100 15 su 610.
c'e' un 5% di densità a favore del processo a 12nm.
quando si è passati dai 28nm dei 561mm^2 ai 16nm FF e 610 di P100, anche se non sono dimensioni reali, si sono raddoppiati i transistor da 7.08 a 15 miliardi (numericamente P100 è il 94% piu' denso di K40), quindi...

il vantaggio potrebbe essere il minor consumo che garantisce quel preciso processo, con tolleranze piu' accurate, tale da non dover sparare volt in eccesso a tutti i chip, o almeno sparargli un sovraplus inferiore a quelli venuti meglio.

materialmente se sfrutti quel 5% distanziando un po' piu' i transistors, se sei oculato nel mettere punti caldi non troppo concentrati, con un buon isolante, puoi prendere anche 500mhz in piu' (rispetto alla frequenza nominale, quindi 1750mhz) arrivando a 2250mhz...
se si considerano medie di 1950mhz per le pascal, significa pomparlo del 15% di prestazioni, che poi è la metà di quello che concedono da una famiglia ad un'altra di prestazioni, generalmente... l'altra metà la guadagni facendolo piu' grosso e ottieni il 30% in piu', ma non sei ancora DX12... sempre di Pascal (un 2.0) parliamo.
 
Pubblicità
Pubblicità
Indietro
Top