Stai usando un browser non aggiornato. Potresti non visualizzare correttamente questo o altri siti web. Dovreste aggiornare o usare un browser alternativo.
UFFICIALEAMD RX Vega 56 e 64 - La risposta ai GP104
grazie grazie ;)
si dai è più o meno da quando ho preso questo monitor che ho in mente di fare un sistema del genere.
eeeeeeh è robbbbba tamarra tamarra dalla cina col furgone ahahahahh
tecnicamente sarebbe un sostegno per la scheda video(come il braccetto che danno con questa scheda), dovrebbe avere un altro pezzo per reggere la scheda ma io non l'ho messo e lo uso solo come abbellimento. rgb, collegato direttamente alla scheda madre. eccolo
non escludo di prenderlo anche con la scritta radeon rx vega 64
Molys, alla fine ci sei cascato...
il coil whine su quella scheda è probabilile... hai 28 barilotti come condensatori ed in parti sufficientemente calde.
non credo sia ne l'alimentatore e neppure la mobo (che magari fa fischiare i condensatori sul PCIe).
la soluzione sarebbe di riconoscere il condensatore che fa rumore, sempre se è lui e non è una saldatura su qualche altro componente, è....
ok, ti parrà strano, ma io l'ho fatto un paio di volte ed ha funzionato...
ho usato l'attack!
una bella colata sul condensatore che fischiava ed il fatto di avere più peso o resistenza fisica alla dilatazione ha fatto in modo di eliminare il problema... non te lo so dire se è per questo motivo, ma 2 volte su 2 mi è riuscito il giochetto.
alcuni ci mettono i vecchi pad termici a mò di ciambella, altri usano la colla a caldo (ma per componentistica che viaggia vicino ai 100°C non credo sia la cosa ottimale), altri li accoffano, nel senso che li ammaccano su un lato, leggerissimamente, e smettono di rumoreggiare.
Molys, alla fine ci sei cascato...
il coil whine su quella scheda è probabilile... hai 28 barilotti come condensatori ed in parti sufficientemente calde.
non credo sia ne l'alimentatore e neppure la mobo (che magari fa fischiare i condensatori sul PCIe).
la soluzione sarebbe di riconoscere il condensatore che fa rumore, sempre se è lui e non è una saldatura su qualche altro componente, è....
ok, ti parrà strano, ma io l'ho fatto un paio di volte ed ha funzionato...
ho usato l'attack!
una bella colata sul condensatore che fischiava ed il fatto di avere più peso o resistenza fisica alla dilatazione ha fatto in modo di eliminare il problema... non te lo so dire se è per questo motivo, ma 2 volte su 2 mi è riuscito il giochetto.
alcuni ci mettono i vecchi pad termici a mò di ciambella, altri usano la colla a caldo (ma per componentistica che viaggia vicino ai 100°C non credo sia la cosa ottimale), altri li accoffano, nel senso che li ammaccano su un lato, leggerissimamente, e smettono di rumoreggiare.
guarda, sta bbbbbeeenissimo lì ahhahaha
nel case e mentre gioco si sente appena. e devo ancora mettermi ad ottimizzarla quindi con consumi inferiori si sentirà meno.
guarda, sta bbbbbeeenissimo lì ahhahaha
nel case e mentre gioco si sente appena. e devo ancora mettermi ad ottimizzarla quindi con consumi inferiori si sentirà meno.
Anche la mia 56 (reference con wubbo) fa un po' di coil whine e come te quando sale tanto l'assorbimento (infatti è inudibile se lascio il PL a 165W, mentre si sente bene se lo spingo più su ;))
Ho fatto un paio di prove veloci ed in downvolt in pratica mi scompare :)
In serata o al più domani vi posto, come promesso, un primo confronto veloce tra la 1080 e la vega56 entrambe a parametri stock (poi con un po' di tempo mi metto ad ottimizzare per bene la vega e posto anche il confronto entrambe ottimizzate ;))
Anche la mia 56 (reference con wubbo) fa un po' di coil whine e come te quando sale tanto l'assorbimento (infatti è inudibile se lascio il PL a 165W, mentre si sente bene se lo spingo più su ;))
Ho fatto un paio di prove veloci ed in downvolt in pratica mi scompare :)
In serata o al più domani vi posto, come promesso, un primo confronto veloce tra la 1080 e la vega56 entrambe a parametri stock (poi con un po' di tempo mi metto ad ottimizzare per bene la vega e posto anche il confronto entrambe ottimizzate ;))
Fantastico. Se riesci prova a fare qualche comparativa su giochi mediamente recenti (max di un anno ad esempio) e non sui soliti quattro titoli anteguerra che utilizzano nelle recensioni.
Fantastico. Se riesci prova a fare qualche comparativa su giochi mediamente recenti (max di un anno ad esempio) e non sui soliti quattro titoli anteguerra che utilizzano nelle recensioni.
volevo mettere il test di fh4 con scheda tutto a default... solo che devo modificare la risoluzione in windows per farlo a 1440p 16:9 perchè nel gioco mi propone solo fino al full hd 16:9 e poi le 2 risoluzioni 21:9 :D :D
Fantastico. Se riesci prova a fare qualche comparativa su giochi mediamente recenti (max di un anno ad esempio) e non sui soliti quattro titoli anteguerra che utilizzano nelle recensioni.
Purtroppo il mio parco giochi è ristretto (soprattutto su quelli recenti)
La "suite" che ho scelto è la seguente (a parte i soliti sintetici, superposition, firestrike e time spy), tutto a 1440p:
- Kingdom Come Deliverance (il gioco più recente che ho) impostato su preset High (preso da poco devo ancora studiare il setting ideale, quindi mi sono affidato ad un preset gestibile bene)
- Rise of the tomb raider (titolo nVidia, sia in DX11 che in DX12) impostazioni personalizzate, test con benchmark integrato
- Total War Warhammer (titolo AMD, anch'esso sia DX11 che DX12), come sopra
- The Witcher 3 (titolo nVidia) una delle mie saghe preferite
- Dragon Age Inquisition (titolo AMD)
- The Witcher 2 (titolo nVidia) come ho detto è una delle mie saghe preferite e volevo vedere le differenze anche su qualcosa di un po' più datato (aspettatevi sorprese sotto questo aspetto ;))
- Diablo 3 (titolo non sponsorizzato), ok, è anche poco esoso di risorse, ma in realtà non so perché estremamente restrittivo in caso di oc (era l'unico titolo su cui la mia vecchia RX 480 crashava in downvolt, anche modesto... ed anche con la 1080 nel test con massimo oc è quello che mi ha fatto scendere di più sulla frequenza per completare il test rispetto a tutti gli altri)
Altri titoli recenti non li ho (credo che comprerò shadow of the tomb raider, ma probabilmente tra qualche mese) a parte questi :(
aaaaaalllooraaa
carissimo e carissimi, arrivata, montata e provata. mammamia che bestia.
è enorme, possente, pesante e bellissima.
disinstallato i vecchi driver prima di togliere la 390 e messo gli ultimi dopo averla installata.
iniziamo da un po' di info generali: ho trovato conferma anche in giro delle differenze di questa nitro+ dalla nitro + LE che sono
- assenza del terzo connettore da 8pin di alimentazione, tendenzialmente inutile.
- assenza di led nella parte frontale, il bordo delle ventole. Ci sono solo quelli del backplate e scritta sapphire (magnifici e tamarrissimi)
- a quanto leggo su reddit mancherebbe anche la camera di vapore e componenti in rame nel dissipatore che nel caso della non LE dovrebbero essere placcati nickel
- clock massimo leggermente più basso
- pl default più basso
e si spera nient'altro di tanto importante.
come viaggia: parecchio. finalmente riesco a sfruttare il monitor con tutti i giochi.. dopo 2 anni. the division è pazzesco, ci sono cose(dettagli) che non ho mai visto. :love:
anche i forza.. horizon o motorport sono meravigliosi da vedere.
ma arriviamo alle cose interessanti:
ho appena iniziato ad addentrarmi nella modifica dei parametri di wattman, @wulff73 mi sono ripreso dei tuoi messaggi quando consigliavi all'utente con vega 64 red devil, mi pare fosse marzo, e sto iniziando a sperimentare qualcosa. per ora ho testato solo le memorie fino a 1050 e superposition l'ha chiuso senza problemi.
posso usare sempre questo per testare la stabilità o meglio altro? l'heaven mi sa di vecchio come test.. o va ancora bene? (oltre ai bench in game ovviamente)
PL: default 240w, mura lì.
temp: fantastiche, non ha mai visto i 60°. (25° ambiente) di solito si attesta sui 57-58 con le memorie 2-3 gradi al di sopra. il backplate cotta parecchio dopo pochi secondi che è a pieno carico. Penso che metterò una ventola in qualche modo per tenerlo più fresco. Uso desktop con ventole ferme sta tra i 30-35°.
Voltaggio, sicuramente tanto. c'è da lavorare.
apertissimo a consigli e prove.
unico, GROSSO neo.......... whina. pooooorca misera...non ci voleva. forse sono io che ero abituato mooolto bene con la 390 che non ne aveva assolutamente perchè ricordo che la 290 msi che avevo in precedenza un po' ne faceva. chiusa nel case e giocando (uso sempre le casse) non si nota ma se muto l'audio si riconosce.
chiedo a chi altro ha preso la nitro se fa lo stesso. e che alimentatore hanno.
cercando un po' ho trovato:
-chi dice che cambiando alimentatore e prendendo un top gamma gold o platinum è sparito
-chi dice che servono 2 cavi distinti per ognuno degli 8 pin e così ha risolto (io ho 2 cavi separati e ho il problema)
-chi dice che dopo un po' di tempo ha smesso da sola.
ora, chiedendo la gentilezza del buon @Falco75, un corsair hx750 (questo e anche qui) del 2011 potrebbe non essere più adeguato alle schede di oggi? non tanto per la potenza ma per la corrente erogata. mai sentito scaldare questo alimentatore.
a parte questo intoppino sono molto soddisfatto della scheda. finalmente performance degne di quel monitor. non che la 390 andasse male, anzi.. faceva spesso gli straordinari e me ne separerò a malincuore (se qualcuno è interessato mi contatti perchè sarà presto in vendita :cry:)
aggiorno presto con le foto del montaggio e in funzione
Su HWU c'è un ottima guida per la powerplay non metto il link non vorrei essere bannato.
Io ho ora una 64 reference ad aria e l'ho settata così magari può essere usato come spunto
Test di Far cry 5 con HD Texture Pack
Allora, ecco qui la prima tornata di test :)
Schede a stock, a simulare un utente che non perde tempo a smanettarci (ok, entrambe a liquido, ma entrambe dovrebbero calare un po' la frequenza con l'alzarsi della temperatura, quindi in buona approssimazione credo di poterlo definire attendibile)
Sarà probabilmente più interessante il confronto delle schede ottimizzate, ma per quello mi occorre un po' più di tempo anche per imparare a conoscere la nuova scheda (che al contrario della nVidia non è così semplice)
I consumi sono tutti registrati alla presa e si riferiscono all'intero pc (che leggete sul mio profilo ;)) con cpu tenuta a 4,5GHz@1,150V (vista la risoluzione a 1440p inutile spingerla oltre, anzi potrei pure tenerla più bassa senza conseguenze se non in rari casi)
Ho adottato un'approssimazione a multipli di 5W, perché ovviamente è piuttosto variabile durante il gameplay ed il wattmetro lo ho in posizione piuttosto scomoda, quindi ho ritenuto inutile cercare una precisione maggiore (tanto non è il singolo W a fare la differenza e serve più che altro per darci un'idea sui consumi)
Tabella dati:
Analisi personale:
Da questa prima analisi si nota che a stock la Vega 56 va un po' meno della 1080 (ma sinceramente non c'è niente di strano in questo visto che anche per prezzo di listino si scontrerebbe con la sorella minore 1070(ti) :)), con consumi alla presa sostanzialmente pari
Sui consumi c'è da fare anche un discorso aggiuntivo: la vega con le impostazioni reference è sempre power limitata, a schermo ho visto sempre l'indicatore segnare i 165W circa del PL, mentre la mia GTX (essendo custom) a stock non raggiunge mai il PL e quindi, mentre per la vega le differenze di consumo sono interamente da attribuire ad un uso più o meno alto della cpu, sulla gtx i consumi dipendono anche dal carico gpu (si vede piuttosto bene ad esempio in Time Spy ed in Fire Strike questo comportamento, dove tra un graphics test e l'altro con la GTX vedevo variazioni anche di 20-30W, che ho poi mediato nel consumo finale, mentre la RX mostrava consumo costante ma frequenze variabili sui vari test)
Proprio in considerazione del fatto che la GTX è una custom ho voluto anche simulare il comportamento di una custom di VEGA 56 (tanto il raffreddamento non è un problema visto che è un confronto tra schede liquidate :asd:)
Simulare le custom di vega 56 è estremamente semplice visto che tutti i produttori (con una eccezione, ma è un'impostazione ridicola secondo me...) hanno optato per lasciare la tabella power tune stock ed alzare solo il PL su valori che vanno tra 180 e 260 watt
Io ho quindi impostato il PL a 225W da wattman (bios B +50% Power Limit) e ripetuto i test
Ovviamente l'efficienza in questo caso va a farsi benedire, ma il guadagno prestazionale c'è (e fa ben sperare per l'ottimizzazione in downvolt, a maggior ragione considerando che tutti i test sono svolti con ram stock ad 800MHz ;))
Passiamo a vedere i titoli un po' più nello specifico (tralascio i sintetici tanto sono solo dei test fini a se stessi, anche se, visto come varia poco la media eliminandoli, direi che rendono abbastanza l'idea di come si comportino in effetti le schede):
1) Kingdome come: la RX va forte, la reference perde giusto un 7% e basta salire col core per raggiungere la GTX in questo titolo DX11 non sponsorizzato (che io sappia almeno)
In questo titolo una buona custom può tranquillamente pareggiare o anche andare un pelo di più out of the box (certo senza ottimizzazioni da parte dell'utente la nVidia risulta più efficiente, ma a parte questo non offre altro in più all'utente su questo titolo)
2) Rise of the Tomb Raider: qui mi aspettavo meglio, anche se è un titolo nVidia le impostazioni gameworks le ho sempre tenute spente e per i capelli di Lara si affida a PureHair (effetto AMD)
La cosa più interessante è solo che passare da DX11 a DX12 fa perdere un po' di prestazioni alla nVidia e ne fa guadagnare un po' alla AMD (ok, il test con PL a 165W mostra una perdita di 1,33fps ma direi che rientra più nel margine di errore tra un test e l'altro che ad un'effettiva perdita di prestazioni)
Interessante anche il fatto che la nVidia perda parecchio (circa 10FPS) in questo gioco...
Comunque, visto che qualunque persona sana di mente in giochi come questo utilizzerebbe l'api che da risultati migliori, imho il confronto corretto è nVidia con DX11 vs AMD con DX12 che rende la soluzione AMD tra un 21 ed un 28% più lenta (differenza accettabile visto il listino un 20% inferiore, se si trovassero a quel prezzo, e considerando che il titolo in questione è sponsorizzato nVidia)
3) Total War Warhammer: questo titolo è un disastro... o almeno sul bench integrato (ma in game ha poco senso confrontare visto la tipologia molto gestionale del gioco che in effetti non necessita di chissà che fps)
Anche qui le DX12 aiutano l'hw AMD (in questo caso guadagna circa quanto la nVidia perde :asd:), ma non bastano ad avvicinarsi ai risultati ottenibili dalla verde
Su questo titolo il bilancio è un -27 / -32 percento circa (c'è un solo gioco di quelli che ho testato in cui fa peggio, ma almeno lì c'è la scusante che è un titolo vecchio, DX9 e sponsorizzato da nVidia, questo è un titolo loro e abbastanza recente...)
4) The Witcher 3: niente di particolare da rilevare, perde un po' (ma nemmeno troppo in realtà) e considerando che qui invece ho anche gli effetti gameworks attivi che sicuramente impattano più sulla scheda AMD direi che ci siamo
Lasciandola libera di cloccare già guadagna un 7%, quindi ottimizzandola e sistemando anche le ram probabilmente si riesce ad avvicinarsi ancora, direi che si comporta degnamente per questo primo test (e appunto come in ROTT anche stock to stock la differenza è accettabile vista la differenza di listino ;))
5) Dragon Age Inquisition: anche qui niente di particolare da rilevare, comportamento simile a quanto visto con "The Witcher" (ed in questo caso anche se il titolo è AMD me lo aspettavo perché è da quando è uscito che sulle nVidia fa un po' meglio per via del motore di gioco su cui è basato)
Qui so per certo che attivando Mantle sicuramente qualcosa guadagnerebbero le AMD (mi andavano meglio sia la 280 che la 390X che la 480, non vedo perché questa dovrebbe essere da meno :asd:), ma purtroppo non ho niente per poter benchare con tale api :( (anche per vedere gli fps l'unico modo era tramite comando da console in game)
6) The Witcher 2: qui incominciamo ad andare su roba vecchiotta, quindi è più a titolo accademico che altro (infatti nelle medie questi titoli DX9 li ho levati subito dopo aver levato i sintetici ;))
E' il titolo in cui fa peggio (a parte Total War in DX11, ma li si può cambiare api), tuttavia è interessante vedere come scali bene salendo di clock :sisi:
Con PL 165W il core viaggia intorno ai 1300MHz, con PL 225W sale a 1500MHz circa, quindi per un aumento del 15% circa di clock restituisce un bel +12% di prestazioni, risultando il titolo che meglio scala con il core clock tra quelli testati
Devo ancora provare quanto gli interessi la banda ram, ma questo risultato mi fa ben sperare per la prova a scheda ottimizzata ;)
Senza contare che qui si comincia a parlare di fps abbondanti ed ottimizzabili anche tramite le impostazioni grafiche che ho volutamente maxato, eccetto ubersampling (spento in quanto filtro pesantissimo e poco utile), per essere tranquillo di non saturare la cpu (che in titoli DX9, visto quanto poco scalino sui core, è facile andarla a tappare)
Insomma, su questo titolo va meno, ma ha tutte le carte in regola per poter ottenere degli ottimi miglioramenti sistemando un po' le cose :D (e comunque vi offre un'ottima esperienza anche a stock, considerando l'età del gioco è un compromesso secondo me perfettamente accettabile a fronte delle prestazioni che poi offre in altri titoli recenti, che magari io non possiedo ma di cui si trovano le recensioni online ed i vostri test ;))
7) Diablo 3: questo invece mi ha stupito veramente molto in positivo :)
Tolto Kingdom Come è il titolo in cui sono più simili e, sinceramente, non me lo aspettavo visto il modo diverso di approcciare ai driver delle due case (mi aspettavo la AMD decisamente più cpu-limited su questo gioco)
Vero che siamo su una situazione vicina al limite della piattaforma (ci si avvicina ai 300FPS sui massimi con entrambe) e che tali fps sono inutili in un gameplay reale (che infatti poi capperò sui 120-140fps, tutto a beneficio dei consumi ;)) ma una differenza di appena il 12-15% su un titolo così vecchio sono ottimi
Qui è stato interessante proprio vedere come le due case approccino in maniera diversa il driver, con la nVidia leggevo a monitor un certo carico su tutti i 12 thread del mio i7 , con la vega invece leggo il core 8 fisso al 100% ed un certo carico sul core 0 (tra il 15 ed il 20 percento) e questo potrebbe essere il motivo per cui la vega si "ferma" a 230-240fps (infatti anche l'averle concesso frequenze maggiori non ha portato ad un gran miglioramento, segno che ci può essere qualcos'altro a limitarla)
Potrei fare una prova più avanti disattivando un po' di core al mio procio e tirando più su che posso la frequenza per vedere se così in questo gioco la vega riesce ad andare oltre il "limite" trovato in questo test (ma sarebbe appunto un test fine a se stesso, visto che fa comunque quasi il doppio dei frame necessari ad un'esperienza più che ottima :lol:)
Conclusioni:
Direi che, tolto dalle medie i sintetici ed i titoli vecchi e considerato i titoli a doppia api con la configurazione migliore per ogni scheda, trovare la vega 56 più lenta di un 23% scarso (reference vs 1080 custom) sia un buon risultato per questa gpu
Se poi consideriamo la custom simulata la differenza si assottiglia abbastanza andando ad un -15% a fronte di un risparmio (purtroppo torico ancora) del 20%
Direi che le vega 64 che la settimana scorsa stavano a 450-470€ erano davvero un'affare :sisi:
Ad occhio out of the box direi che avrebbero superato la GTX1080 in prestazioni in questo test, magari di poco e non in tutti i titoli, ma avresti comunque risparmiato una 50ina di euro (ed altri 100 sul monitor freesync anziché G-sync ;)) e l'unica "pecca" sarebbe stata sui consumi (ma 150€ per recuperarli con le bollette, con la scheda usata solo per giocare, hai del lavoro :asd:)
Ci aggiungo un piccolo bonus:
(non posto risultati perché in questo ambito hanno senso solo schede ottimizzate ed io devo ancora lavorarci ;)) mining :look:
In questo ambito fare comparazioni dirette tra schede ha poco senso perché ognuna ha un ambito preferenziale, ad esempio Vega va forte su cryptonight e su dagger hasimoto (la 1080 invece brilla in equihash, Lyra2REv2 e neoscrypt)
Bene, visto quanto detto sopra ho voluto provarla velocemente su cryptonightV7 (versione senza ASIC dell'algoritmo):
Il primo test mi ha dato 1500H/s (per comparazione la mia cpu ne fa 450 circa ed un Ryzen octa core arriva sui 700 H/s)
Ma le gpu AMD su questo algoritmo hanno il vantaggio di poter lavorare su due "filoni di lavoro" in contemporanea (come avevo già provato con le RX550), basta impostarne l'intensità in modo da non saturare la vram (altrimenti ovviamente diventa controproducente)
Facendo questa impostazione sono passato in un attimo a 1700H/s (circa 850H/s su ogni filone di lavoro ;))
La cosa bella è che con la gpu che minava in queste condizioni ho potuto avviare un browser game senza subire rallentamenti :D
In pratica questa gpu è riuscita a gestirmi ben tre carichi (di cui due estremamente pesanti) contemporanei senza alcun impuntamento mentre la 1080 come attivavo un miner mi consentiva solo l'uso di applicazioni che non sfruttassero la grafica (es. semplice navigazione su chrome con accelerazione hardware disabilitata, ma non far partire neanche un video, altrimenti era tutto uno scatto :nono:)
Via, come prima prova direi che sono rimasto soddisfatto ed ora che sempre più spesso si comincia a trovare qualcosa al prezzo dichiarato da AMD cominciano ad essere veramente appetibili
Vediamo come si dimostrerà la scheda nel confronto ottimizzato (che credo sarà più interessante di questo che, alla fine, non mostra molto di più di quello che già si vede anche nelle recensioni online :rolleyes:)
Allora, ecco qui la prima tornata di test :)
Schede a stock, a simulare un utente che non perde tempo a smanettarci (ok, entrambe a liquido, ma entrambe dovrebbero calare un po' la frequenza con l'alzarsi della temperatura, quindi in buona approssimazione credo di poterlo definire attendibile)
Sarà probabilmente più interessante il confronto delle schede ottimizzate, ma per quello mi occorre un po' più di tempo anche per imparare a conoscere la nuova scheda (che al contrario della nVidia non è così semplice)
I consumi sono tutti registrati alla presa e si riferiscono all'intero pc (che leggete sul mio profilo ;)) con cpu tenuta a 4,5GHz@1,150V (vista la risoluzione a 1440p inutile spingerla oltre, anzi potrei pure tenerla più bassa senza conseguenze se non in rari casi)
Ho adottato un'approssimazione a multipli di 5W, perché ovviamente è piuttosto variabile durante il gameplay ed il wattmetro lo ho in posizione piuttosto scomoda, quindi ho ritenuto inutile cercare una precisione maggiore (tanto non è il singolo W a fare la differenza e serve più che altro per darci un'idea sui consumi)
Da questa prima analisi si nota che a stock la Vega 56 va un po' meno della 1080 (ma sinceramente non c'è niente di strano in questo visto che anche per prezzo di listino si scontrerebbe con la sorella minore 1070(ti) :)), con consumi alla presa sostanzialmente pari
Sui consumi c'è da fare anche un discorso aggiuntivo: la vega con le impostazioni reference è sempre power limitata, a schermo ho visto sempre l'indicatore segnare i 165W circa del PL, mentre la mia GTX (essendo custom) a stock non raggiunge mai il PL e quindi, mentre per la vega le differenze di consumo sono interamente da attribuire ad un uso più o meno alto della cpu, sulla gtx i consumi dipendono anche dal carico gpu (si vede piuttosto bene ad esempio in Time Spy ed in Fire Strike questo comportamento, dove tra un graphics test e l'altro con la GTX vedevo variazioni anche di 20-30W, che ho poi mediato nel consumo finale, mentre la RX mostrava consumo costante ma frequenze variabili sui vari test)
Proprio in considerazione del fatto che la GTX è una custom ho voluto anche simulare il comportamento di una custom di VEGA 56 (tanto il raffreddamento non è un problema visto che è un confronto tra schede liquidate :asd:)
Simulare le custom di vega 56 è estremamente semplice visto che tutti i produttori (con una eccezione, ma è un'impostazione ridicola secondo me...) hanno optato per lasciare la tabella power tune stock ed alzare solo il PL su valori che vanno tra 180 e 260 watt
Io ho quindi impostato il PL a 225W da wattman (bios B +50% Power Limit) e ripetuto i test
Ovviamente l'efficienza in questo caso va a farsi benedire, ma il guadagno prestazionale c'è (e fa ben sperare per l'ottimizzazione in downvolt, a maggior ragione considerando che tutti i test sono svolti con ram stock ad 800MHz ;))
Passiamo a vedere i titoli un po' più nello specifico (tralascio i sintetici tanto sono solo dei test fini a se stessi, anche se, visto come varia poco la media eliminandoli, direi che rendono abbastanza l'idea di come si comportino in effetti le schede):
1) Kingdome come: la RX va forte, la reference perde giusto un 7% e basta salire col core per raggiungere la GTX in questo titolo DX11 non sponsorizzato (che io sappia almeno)
In questo titolo una buona custom può tranquillamente pareggiare o anche andare un pelo di più out of the box (certo senza ottimizzazioni da parte dell'utente la nVidia risulta più efficiente, ma a parte questo non offre altro in più all'utente su questo titolo)
2) Rise of the Tomb Raider: qui mi aspettavo meglio, anche se è un titolo nVidia le impostazioni gameworks le ho sempre tenute spente e per i capelli di Lara si affida a PureHair (effetto AMD)
La cosa più interessante è solo che passare da DX11 a DX12 fa perdere un po' di prestazioni alla nVidia e ne fa guadagnare un po' alla AMD (ok, il test con PL a 165W mostra una perdita di 1,33fps ma direi che rientra più nel margine di errore tra un test e l'altro che ad un'effettiva perdita di prestazioni)
Interessante anche il fatto che la nVidia perda parecchio (circa 10FPS) in questo gioco...
Comunque, visto che qualunque persona sana di mente in giochi come questo utilizzerebbe l'api che da risultati migliori, imho il confronto corretto è nVidia con DX11 vs AMD con DX12 che rende la soluzione AMD tra un 21 ed un 28% più lenta (differenza accettabile visto il listino un 20% inferiore, se si trovassero a quel prezzo, e considerando che il titolo in questione è sponsorizzato nVidia)
3) Total War Warhammer: questo titolo è un disastro... o almeno sul bench integrato (ma in game ha poco senso confrontare visto la tipologia molto gestionale del gioco che in effetti non necessita di chissà che fps)
Anche qui le DX12 aiutano l'hw AMD (in questo caso guadagna circa quanto la nVidia perde :asd:), ma non bastano ad avvicinarsi ai risultati ottenibili dalla verde
Su questo titolo il bilancio è un -27 / -32 percento circa (c'è un solo gioco di quelli che ho testato in cui fa peggio, ma almeno lì c'è la scusante che è un titolo vecchio, DX9 e sponsorizzato da nVidia, questo è un titolo loro e abbastanza recente...)
4) The Witcher 3: niente di particolare da rilevare, perde un po' (ma nemmeno troppo in realtà) e considerando che qui invece ho anche gli effetti gameworks attivi che sicuramente impattano più sulla scheda AMD direi che ci siamo
Lasciandola libera di cloccare già guadagna un 7%, quindi ottimizzandola e sistemando anche le ram probabilmente si riesce ad avvicinarsi ancora, direi che si comporta degnamente per questo primo test (e appunto come in ROTT anche stock to stock la differenza è accettabile vista la differenza di listino ;))
5) Dragon Age Inquisition: anche qui niente di particolare da rilevare, comportamento simile a quanto visto con "The Witcher" (ed in questo caso anche se il titolo è AMD me lo aspettavo perché è da quando è uscito che sulle nVidia fa un po' meglio per via del motore di gioco su cui è basato)
Qui so per certo che attivando Mantle sicuramente qualcosa guadagnerebbero le AMD (mi andavano meglio sia la 280 che la 390X che la 480, non vedo perché questa dovrebbe essere da meno :asd:), ma purtroppo non ho niente per poter benchare con tale api :( (anche per vedere gli fps l'unico modo era tramite comando da console in game)
6) The Witcher 2: qui incominciamo ad andare su roba vecchiotta, quindi è più a titolo accademico che altro (infatti nelle medie questi titoli DX9 li ho levati subito dopo aver levato i sintetici ;))
E' il titolo in cui fa peggio (a parte Total War in DX11, ma li si può cambiare api), tuttavia è interessante vedere come scali bene salendo di clock :sisi:
Con PL 165W il core viaggia intorno ai 1300MHz, con PL 225W sale a 1500MHz circa, quindi per un aumento del 15% circa di clock restituisce un bel +12% di prestazioni, risultando il titolo che meglio scala con il core clock tra quelli testati
Devo ancora provare quanto gli interessi la banda ram, ma questo risultato mi fa ben sperare per la prova a scheda ottimizzata ;)
Senza contare che qui si comincia a parlare di fps abbondanti ed ottimizzabili anche tramite le impostazioni grafiche che ho volutamente maxato, eccetto ubersampling (spento in quanto filtro pesantissimo e poco utile), per essere tranquillo di non saturare la cpu (che in titoli DX9, visto quanto poco scalino sui core, è facile andarla a tappare)
Insomma, su questo titolo va meno, ma ha tutte le carte in regola per poter ottenere degli ottimi miglioramenti sistemando un po' le cose :D (e comunque vi offre un'ottima esperienza anche a stock, considerando l'età del gioco è un compromesso secondo me perfettamente accettabile a fronte delle prestazioni che poi offre in altri titoli recenti, che magari io non possiedo ma di cui si trovano le recensioni online ed i vostri test ;))
7) Diablo 3: questo invece mi ha stupito veramente molto in positivo :)
Tolto Kingdom Come è il titolo in cui sono più simili e, sinceramente, non me lo aspettavo visto il modo diverso di approcciare ai driver delle due case (mi aspettavo la AMD decisamente più cpu-limited su questo gioco)
Vero che siamo su una situazione vicina al limite della piattaforma (ci si avvicina ai 300FPS sui massimi con entrambe) e che tali fps sono inutili in un gameplay reale (che infatti poi capperò sui 120-140fps, tutto a beneficio dei consumi ;)) ma una differenza di appena il 12-15% su un titolo così vecchio sono ottimi
Qui è stato interessante proprio vedere come le due case approccino in maniera diversa il driver, con la nVidia leggevo a monitor un certo carico su tutti i 12 thread del mio i7 , con la vega invece leggo il core 8 fisso al 100% ed un certo carico sul core 0 (tra il 15 ed il 20 percento) e questo potrebbe essere il motivo per cui la vega si "ferma" a 230-240fps (infatti anche l'averle concesso frequenze maggiori non ha portato ad un gran miglioramento, segno che ci può essere qualcos'altro a limitarla)
Potrei fare una prova più avanti disattivando un po' di core al mio procio e tirando più su che posso la frequenza per vedere se così in questo gioco la vega riesce ad andare oltre il "limite" trovato in questo test (ma sarebbe appunto un test fine a se stesso, visto che fa comunque quasi il doppio dei frame necessari ad un'esperienza più che ottima :lol:)
Conclusioni:
Direi che, tolto dalle medie i sintetici ed i titoli vecchi e considerato i titoli a doppia api con la configurazione migliore per ogni scheda, trovare la vega 56 più lenta di un 23% scarso (reference vs 1080 custom) sia un buon risultato per questa gpu
Se poi consideriamo la custom simulata la differenza si assottiglia abbastanza andando ad un -15% a fronte di un risparmio (purtroppo torico ancora) del 20%
Direi che le vega 64 che la settimana scorsa stavano a 450-470€ erano davvero un'affare :sisi:
Ad occhio out of the box direi che avrebbero superato la GTX1080 in prestazioni in questo test, magari di poco e non in tutti i titoli, ma avresti comunque risparmiato una 50ina di euro (ed altri 100 sul monitor freesync anziché G-sync ;)) e l'unica "pecca" sarebbe stata sui consumi (ma 150€ per recuperarli con le bollette, con la scheda usata solo per giocare, hai del lavoro )
Ci aggiungo un piccolo bonus:
(non posto risultati perché in questo ambito hanno senso solo schede ottimizzate ed io devo ancora lavorarci ;)) mining :look:
In questo ambito fare comparazioni dirette tra schede a poco senso perché ognuna ha un ambito preferenziale, ad esempio Vega va forte su cryptonight e su dagger hasimoto (la 1080 invece brilla in equihash, Lyra2REv2 e neoscrypt)
Bene, visto quanto detto sopra ho voluto provarla velocemente su cryptonightV7 (versione senza ASIC dell'algoritmo):
Il primo test mi ha dato 1500H/s (per comparazione la mia cpu ne fa 450 circa ed un Ryzen octa core arriva sui 700 H/s)
Ma le gpu AMD su questo algoritmo hanno il vantaggio di poter lavorare su due "filoni di lavoro" in contemporanea (come avevo già provato con le RX550), basta impostarne l'intensità in modo da non saturare la vram (altrimenti ovviamente diventa controproducente)
Facendo questa impostazione sono passato in un attimo a 1700H/s (circa 850H/s su ogni filone di lavoro ;))
La cosa bella è che con la gpu che minava in queste condizioni ho potuto avviare un browser game senza subire rallentamenti :D
In pratica questa gpu è riuscita a gestirmi ben tre carichi (di cui due estremamente pesanti) contemporanei senza alcun impuntamento mentre la 1080 come attivavo un miner mi consentiva solo l'uso di applicazioni che non sfruttassero la grafica (es. semplice navigazione su chrome con accelerazione hardware disabilitata, ma non far partire neanche un video), altrimenti era tutto uno scatto :nono:
Via, come prima prova direi che sono rimasto soddisfatto ed ora che sempre più spesso si comincia a trovare qualcosa al prezzo dichiarato da AMD cominciano ad essere veramente appetibili
Vediamo come si dimostrerà la scheda nel confronto ottimizzato (che credo sarà più interessante di questo che, alla fine, non mostra molto di più di quello che già si vede anche nelle recensioni online :rolleyes:)
Ottimo lavoro. Ricordati comunque che Vega ha un P7 molto abbondante e sicuramente riuscirai a togliere parecchi Watt dalla tua 56. Un altra cosa: ogni tanto prova ad attivare l'HBCC che può dare qualche fps in più. Lo sto provando ad esempio oggi su Forza Horizon 4 e tra ON e OFF mi ritrovo un +6% circa di fps a favore dell'ON.
PS: quei giochi sono vecchi come il cucco a parte uno....Vega fa fatica a gestire quel tipo di titoli. :asd:
--- i due messaggi sono stati uniti ---
I titoli recenti che possiedo o che ricordi dove AMD in generale e Vega in particolare va veramente bene sono: Dirt 4, Doom, Forza Motorsport 7, Forza Horizon 4, Far Cry 5, The Division, Battlefield 1, Wolfenstein 2 :The New Colossus, Star Wars: Battlefront II e Strange Brigade.
Ieri sera ho installato Rise of the Tomb Raider lo faccio partire e da afterburner la GPU mi consuma 260W.
Carico l'impostazione dell'undervolt e si viaggia sui 100/150W.
Incredibile...