UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità

Ho trovato questo interessante:

"Fifth, AMD is tweaking their boost clock mechanism and how it's advertised. Up until now, the boost clock was the maximum clock a Radeon card would hit. e.g. a stock Fury X topped out at 1.05GHz, and a stock RX 580 at 1340MHz. Starting with Vega RX, however, the company's definition of the boost clock is changing to the highest clockspeed a card is guaranteed to hit, but not the absolute highest clockspeed it can hit under load. There are still some nuances I want to test once I have the hardware in-hand, but at first glance this sounds closer to NVIDIA's definition, where each and every card is allowed to reach its natural limit (for the stock voltage)."

http://www.anandtech.com/show/11680...-vega-64-399-rx-vega-56-launching-in-august/3
 
Bene molto vicino al GPU boost che però è thermal-related (correlato alle temperature in base alle quali il BIOS impone l'aumento di clock sotto carico).
Chissà che non sia simile anche sotto questo punto di vista.

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
Io veramente non sto difendendo la titan, anzi l'ho sempre vista come una scheda inutilmente costosa, ho solo risposto a presidente sul fatto dei driver specifici per maya.
Comunque levo volentieri il disturbo......
Vedo che qui è una sorta di ghetto, sono già stato catalogato come fanboy con due post ammazza.
Di certo a me non né viene nulla se nvidia vende o se AMD fallisce, ho altre priorità nella vita.

Io mi sono appositamente lasciato l'etichettina sotto l'avatar :D

Puntare sulla rx vega 56 o 64? Entrambe hanno consumi esorbitanti rispetto alle nvidia......posso ancora capire 210W ma 300W!!!!:suicidio: i prezzi sono buoni, ma secondo voi converrà prendere la 64? Boh l'unica cosa da fare è aspettare le recensioni di entrambe e cioè fine agosto/inizio settembre, se la 56 sarà molto vicina alla 1080 e la 64 poco superiore la scelta è semplice, speriamo sia così......anche perchè 300w da dissipare non sono proprio bruscolini

Fino alle recensioni è difficile farsi un'idea. La mia lista di recensioni è:

AnandTech per l'analisi tecnica
ComputerBase per i test nei giochi (con un traduttore tedesco->inglese)
TechPowerUp per la sola pagina dei risultati complessivi, come ultima lettura, per avere un posizionamento generale

parliamoci chiaro: non fai contento se non il consumatore a rendere il tuo software utilizzabile da tutti e fai contento soprattutto te stesso passandolo dal 20% degli utilizzatori all'80% e piu' (perchè andrebbe meno, ma andrebbe comunque).
è una costrizione di mercato.
tu oggi in autostrada apriresti un distributore di benzina o uno con colonnine di ricarica per auto elettriche?

Quel caso che ho scritto (si trattava di Assassin's Creed in DX10.1, poi patchato a DX10) corrisponde ad aver aperto un distributore di benzina con colonnine di ricarica per le auto elettriche e aver chiuso le colonnine elettriche perché Exon Mobil ti ha pagato una tangente :)
 
Io mi sono appositamente lasciato l'etichettina sotto l'avatar :D



Fino alle recensioni è difficile farsi un'idea. La mia lista di recensioni è:

AnandTech per l'analisi tecnica
ComputerBase per i test nei giochi (con un traduttore tedesco->inglese)
TechPowerUp per la sola pagina dei risultati complessivi, come ultima lettura, per avere un posizionamento generale



Quel caso che ho scritto (si trattava di Assassin's Creed in DX10.1, poi patchato a DX10) corrisponde ad aver aperto un distributore di benzina con colonnine di ricarica per le auto elettriche e aver chiuso le colonnine elettriche perché Exon Mobil ti ha pagato una tangente :)
Esatto, concordo :)
Poi si sa: Ubisoft è incapace nel fare giochi per PC, glieli scrive Nvidia infarcendoli di codice pieno zeppo di features che funzionano soltanto con le loro schifose librerie , vedi hairworks, che però logicamente girano male anche sulle stesse GeForce! :asd:
Uno dei motivi per cui ho chiuso con questo produttore di schede, stesso motivo per cui non gioco NESSUNA porcheria Ubisoft (ad eccezione di Far Cry che però ricordiamolo era una creatura di Crytek). Watch Dogs, For Honor, Wildlands (che di Ghost Recon non ha nulla! Anche questo ricordiamo non fu loro creazione, era una IP di Red Storm), The Crew sono giochi di una mediocrità imbarazzante caratterizzati da problemi tecnici ridicoli soprattutto su schede Radeon: è al limite del lecito che il software Ubisoft (si scrive Ubisoft ma si legge Nvidia) venga letteralmente NON pensato e NON ottimizzato per girare con le Radeon .

Di contro, i giochi "targati" AMD girano diciamo ugualmente bene (o ugualmente male) anche su schede GeForce.
Il Tress FX in Tomba Raider per esempio gira alla grande sia per le verdi che per le rosse.
Invece, Hairworks in The Witcher 3 gira in maniera ridicola con le rosse e per girare bene con le verdi hanno dovuto aspettare Pascal (un anno dopo l'uscita del gioco) poiché anche la 970 e la 980 non erano in grado e perdevano tanti frame con hairworks abilitato.
Motivo: tassellatura , tassellatura dappertutto (è alla base di Hairworks e non solo). Ma allora, a cosa serviva tutta quella inutile tassellatura nel Witcher?! A tagliare le gambe a Kepler e a GCN, dato che Pascal ha un tassellator più potente dello stesso Maxwell.
In questo modo Nvidia può fare quel che vuole e decidere che la tua 780 Ti deve andare peggio della 970....

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
Ultima modifica:
Se é vero che ci sono su timespy delle Vega a 1800-1850 MHz sarebbe assolutamente un altro paio di maniche rispetto ai leak che abbiamo visto ora in cui era sempre attorno ai 1600 MHz (se non mi sbaglio).
+200/+250 MHz (o anche di piú, magari, se poi consideriamo le custom!) sarebbe praticamente un enorme guadagno in termini di potenza di calcolo pura (= framerate maggiore).
Se rispetto alle Vega spacciate finora a circa 1600 MHz sará possibile farle andare a 1800+ MHz, si tratterá almeno di (stando in base a come funzionano le schede da gaming negli ultimi anni) un +10/+15% di performance, ma anche di piú forse, poi certamente dipende dall’árchitettura e da come si comporteranno questi chip. ;)
si leggono 1842mhz su questo:
http://www.3dmark.com/spy/2128684
ma non è correlato al risultato, perchè frenata da un ryzen 1700 a 3200mhz di boost (un po' tirato, su quel tipo di benchmark).

...e comunque qui si và in zona rossa sui consumi...
se 100W tra 150 e 250 non fregano granchè su un desktop, perchè gestibili con un sistema di raffreddamento migliore, tra 300 e 400 diventano importanti, perchè un miglior raffreddamento significa usare cose ben piu' complicate e costose.
 
si leggono 1842mhz su questo:
http://www.3dmark.com/spy/2128684
ma non è correlato al risultato, perchè frenata da un ryzen 1700 a 3200mhz di boost (un po' tirato, su quel tipo di benchmark).

...e comunque qui si và in zona rossa sui consumi...
se 100W tra 150 e 250 non fregano granchè su un desktop, perchè gestibili con un sistema di raffreddamento migliore, tra 300 e 400 diventano importanti, perchè un miglior raffreddamento significa usare cose ben piu' complicate e costose.
Quoto!

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
ovvero nell'italico idioma? :lol:

Con un'immagine faccio prima :asd:
slides-raja-50.jpg
 
Pubblicità
Pubblicità
Indietro
Top