E intanto a me continuano a dire " eh quello con la vega, scalda, consuma, crasha", ed ai 240w che stava consumando la mia con OC alle memorie e 74°c mi sento dire: spero sia il consumo di tutto il sistema....
Eh si... essere fanboy brutta bestia...
Vega ha punti a favore e punti a sfavore...come tutto del resto. Sui consumi il discorso viene un pò troppo spesso ingigantito e bisognerebbe fare un distinguo tra Vega 56 e Vega 64.
Come sappiamo Vega ha due bios e tre impostazioni cadauno per un totale di sei opzioni. Ogni opzione ha un consumo limite ben definito (questi valori pubblicizzati da AMD dovrebbero essere i valori di consumo massimo del solo chip Vega; la scheda nella sua interezza consuma qualcosina di più):
Come si vede i limiti dei bios primari sono 190W per Vega 56 e 253W per Vega 64 (versioni Air) e sostanzialmente quelli sono i valori di consumo se si imposta la modalità "Turbo". Seguendo quelle impostazioni pertanto in teoria il chip Vega 56 consuma fino a 190W@1471Mhz (boost clock) mentre Vega 64 consuma fino a 253W@1546Mhz.
I valori reali di consumo di Vega 56 coi profili di default, effettivamente rilevati da me alla presa, invece sono:
Power Save = circa 190W
Balanced = circa 210W
Turbo= circa 240W
Se applico un pò di downvolting, overclock (chip e memorie) ed aumento del power limit ottengo che la
mia Vega 56 gira a 1560Mhz con circa 210W reali alla presa.
Se prendiamo l'antagonista attuale di Vega 56 Reference, ovvero la GTX 1070Ti FE abbiamo questi consumi:
Praticamente in gaming consuma una manciata di Watt in meno (180W). Più interessante invece il grafico dove c'è una 1070Ti occata che pertanto è paragonabile alle impostazioni che uso sulla mia:
Qui la 1070Ti consuma 233W, ovvero una quantità di energia paragonabile alla modalità del profilo "Turbo" di Vega 56. Considerando che sicuramente qualche Watt si può risparmiare con un pò di downvolting, sarebbe curioso verificare se una 1070Ti occata allo stesso livello riesca sempre a scendere di almeno 25W per consumare quanto consuma la mia. Comunque è vero che i chip Vega hanno una produzione qualitativamente molto varia e magari non sempre si riescono a risparmiare dei Watt ma comunque il succo è che le schede video Vega 56 non consumano in maniera spropositata rispetto alle soluzioni Nvidia (piccola precisazione: i chip Vega in se consumano effettivamente di più dei chip Nvidia ma risparmiano tantissimi Watt nel complesso utilizzando le memorie HBM al posto delle GDDR).
Discorso diverso per Vega 64: consuma troppo rispetto a Nvidia e pure troppo rispetto alla 56 per le prestazioni che offre. Purtroppo il chip Vega impenna i consumi al superamento una certa soglia di frequenza (più o meno i 1600Mhz). Con questi valori in gioco ci si mette un attimo a richiedere 100W in più per passare da 1600 a 1650Mhz e ciò rende "proibito" l'utilizzo di questi valori per le schede reference (troppo calore prodotto per essere dissipato dal blower e troppo rumore). Le versioni custom di Vega avranno sicuramente accesso a queste soglie di prestazioni per via della dissipazione migliore ma bisogna tener conto come detto pure dei consumi che si impenneranno di conseguenza.
Sulla questione delle temperature mi scappa un sorriso: Vega 56 reference sta sui 74°C mentre la 64 sta sui 79°C...la Sapphire custom sta a 60°C in overclock. La 1070/1080/1080Ti Founders stanno tutte rispettivamente a 76°C/82°C/84°C. Dai su non scherziamo.
Per i crash bene o male capitano a tutti, soprattutto quando si giochicchia coi valori. Se non altro il Radeon Software ha una interfaccia che non sembra partorita da Windows XP e AMD la sta arricchendo di funzioni utili (per me) ed interessanti (ho approfondito ieri l'utilizzo di AMD Link sul telefono e ho scoperto che oltre mostrarti i parametri della GPU, tra cui gli FPS, ti dice pure la media dei frame della sessione di gioco coi minimi e massimi).
Per ora mi lamento solo della indisponibilità delle schede, soprattutto durante le festività, su cui si fanno le congetture più disparate (l'ultima è che AMD abbia "priorizzato" la produzione di CPU a 14nm nella Fab 8 piuttosto che di GPU) e del derivante abominio sui prezzi dei pochi prodotti disponibili su cui TUTTI fanno la cresta.