UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
Per gli altri: siete tutti sul filo del rasoio, smettetela di flammare è diventato un asilo questo 3d.

ti riferisci a queste frecciatine? :rolleyes:

Pascal (precisamente 1070 e 1080) é fuori da 1 anno e 5 mesi, ma per qualcuno l’arco temporale di 1 anno e 5 mesi equivale a due anni.. :asd:

C 1080 levati che devo passare era una battuta che hanno capito più o meno tutti tranne uno

Inviato da Lenovo P2a42 tramite App ufficiale di Tom\\\'s Hardware Italia Forum
 
Ho caricato il video di Project CARS 2 in 4K (2160p), settings massimi e ovviamente scheda non in OC, solo il PL a +50% e HMB2 a 900Mhz. Blower a default.

 
No non è un bug. Polaris 4XX non ha step intermedi tra 300Mhz e 2000Mhz delle Vram. Fino a 120Hz e fino ad un monitor gli va bene la banda garantita dalle frequenze minori in idle, oltre no e andava sull'altro unico step che aveva ovvero il massimo. Credo che questo tipo di funzionamento l'abbiano modificato con le Polaris 5XX.

No, era un bug e mi sembra che alcune release di driver lo avevano anche risolto
La mia ex 480 le ram le teneva a 300MHz a desktop con un monitor 1440p@144Hz (senza impostarlo diversamente ;)), in dual monitor non ho mai provato, ma in teoria dovevano aver risolto anche quello

Comunque che le schede all'aumentare di risoluzione scaldino un po' di più è normale, ma quella del video fa veramente molto male come temperature, magari è un esemplare meno fortunato
Può capitare, la mia r9 280 con parametri stock ha sempre fatto almeno 5° in più rispetto alle recensioni, anche a case aperto o comunque ben aerato (poi se tenuta fresca, soprattutto sui vrm, saliva bene scalando discretamente con la tensione, ma ha sempre avuto bisogno di un power limit molto ampio, segno che tendeva ad assorbire più corrente della media)
 
Confermo anche con la mia vecchia r9 390 con due monitor FullHD c'era quel bug poi risolto dai driver. Era molto fastidioso perché invece che rimanere spente le ventole in idle si accendevano sempre perché le ram erano al massimo della frequenza.
 
Se vi interessa, io sono passato da una GTX1080 G1 sfigata (pagata 740,87€ due mesi dopo l'annuncio) ad una Vega56 sfigata (pagata 435,90€ due mesi dopo l'annuncio) quindi sono un buon metro di paragone. :D
Questi sono stati i massimi che ho ottenuto in overclock con tutto il resto del sistema identico:
Vega:
Cattura3.webp
G1:
Cattura2.webp

A parità di performance come temperatura e rumore siamo li, a case chiuso la G1 faceva parecchio casino e si scaldava quanto e forse di più della Vega, il dissipatore che butta aria calda fuori anche se brutto e senza heatpipe non è una m***a come pensavo. :D

Ovviamente mi trovo molto meglio a giocare con la Vega56 ma tutto il feeling superiore è dovuto al monitor freesync è quello il plus, opzione imprescindibile secondo me. :rock:. Probabilmente se quegli avidi di Nvidia (perché solo cosi si possono definire visto che per loro supportare una cosa free e opensource sarebbe un gioco da ragazzi invece di voler lucrare sul loro inutile modulo GSync) mi supportavano il FreeSync mi sarei tenuto la GTX1080.

E ho un portatile con GTX1060 e GSync e anche li è uno spettacolo, il funzionamento è identico.
 
Abbiamo due Vega che fondamentalmente vanno quanto una 1080, tranne ovviamente in titoli più Nvidia friendly, è un peccato che la liquid non riesca ad avvicinarsi ai livelli della Ti. AMD di nuovo superata dalla famiglia Ti.
 
Abbiamo due Vega che fondamentalmente vanno quanto una 1080, tranne ovviamente in titoli più Nvidia friendly, è un peccato che la liquid non riesca ad avvicinarsi ai livelli della Ti. AMD di nuovo superata dalla famiglia Ti.

qualche 64 che è cattiva come queste in giro ci sarà.
secondo @wulff73 la sua stà a 200W circa, con i suoi settaggi.
c'e' solo il 15% di differenza di SP attivi, e nella 56 quel 15% non è certo tagliato, viene ancora clockato, solo non usato.
a 230w, con un buon dissipatore o addirittura sotto liquido, parliamo di 27-28.000 punti nel GF.
a mio avviso è che ancora non si vedono golden sampler della 64...

il punto è capire quanto c'e' tra un golden sampler e uno straccio di chip e quanto incidono in percentuale sulla produzione.
per ora questi sono casi eccezionali, e non ne contiamo uno solo sulle 64.
 
qualche 64 che è cattiva come queste in giro ci sarà.
secondo @wulff73 la sua stà a 200W circa, con i suoi settaggi.
c'e' solo il 15% di differenza di SP attivi, e nella 56 quel 15% non è certo tagliato, viene ancora clockato, solo non usato.
a 230w, con un buon dissipatore o addirittura sotto liquido, parliamo di 27-28.000 punti nel GF.
a mio avviso è che ancora non si vedono golden sampler della 64...

il punto è capire quanto c'e' tra un golden sampler e uno straccio di chip e quanto incidono in percentuale sulla produzione.
per ora questi sono casi eccezionali, e non ne contiamo uno solo sulle 64.

C'è anche da capire se si riesce a sfruttarle quelle 8CU in più, perché per ora nei test a pari frequenza lo scaling sugli shader è bassissimo e tendente al nullo:
v56-v64-3dmark-scaling-score.png


Se non cambia qualcosa non è solo questione di trovare il chip gold, quanto il vedere sistemato qualcosa lato software (supponendo che sia un limite arginabile)
 
Se vi interessa, io sono passato da una GTX1080 G1 sfigata (pagata 740,87€ due mesi dopo l'annuncio) ad una Vega56 sfigata (pagata 435,90€ due mesi dopo l'annuncio) quindi sono un buon metro di paragone. :D
Questi sono stati i massimi che ho ottenuto in overclock con tutto il resto del sistema identico:
Vega:
Visualizza allegato 264105
G1:
Visualizza allegato 264104

A parità di performance come temperatura e rumore siamo li, a case chiuso la G1 faceva parecchio casino e si scaldava quanto e forse di più della Vega, il dissipatore che butta aria calda fuori anche se brutto e senza heatpipe non è una sheetah come pensavo. :D

Ovviamente mi trovo molto meglio a giocare con la Vega56 ma tutto il feeling superiore è dovuto al monitor freesync è quello il plus, opzione imprescindibile secondo me. :rock:. Probabilmente se quegli avidi di Nvidia (perché solo cosi si possono definire visto che per loro supportare una cosa free e opensource sarebbe un gioco da ragazzi invece di voler lucrare sul loro inutile modulo GSync) mi supportavano il FreeSync mi sarei tenuto la GTX1080.

E ho un portatile con GTX1060 e GSync e anche li è uno spettacolo, il funzionamento è identico.
Bravo! Il Freesync è vita! ;)

Inviato dal mio Lenovo K53a48 utilizzando Tapatalk
 
qualche 64 che è cattiva come queste in giro ci sarà.
secondo @wulff73 la sua stà a 200W circa, con i suoi settaggi

I valori che indico però sono presi da GPU-Z e non so quanto sia affidabile, anche se suppongo non si discostino tantissimo dalla realtà. Per una misurazione corretta comunque ci vorrebbero degli strumenti ad hoc come sai benissimo che purtroppo non posseggo. Posso comunque dire che GPU-Z mi restituisce valori di consumo intorno ai 170-180W in profilo balanced. In gioco, con tutto downvoltato e col PL al massimo, indica intorno ai 200W (nel range medio tra i 1500 ed 1550Mhz circa). Il massimo che il programmino ha indicato durante un test di overclock, quando la mia Vega 56 stava allo stremo delle sue possibilità, è stato intorno ai 250W.

PS: allego screen dei consumi massimi della mia Vega 56 con settaggi "calibrati"...scheda da 200W comunque.
 

Allegati

  • GPU-Z.gif
    GPU-Z.gif
    16.5 KB · Visualizzazioni: 34
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top