UFFICIALE AMD RX Vega 56 e 64 - La risposta ai GP104

Pubblicità
@wulff73 non mi è chiara una cosa dei tuoi benchmark: come fai a sapere che stai benchando (salvo la presenza di bench integrati) la stessa scena? Addirittura su BF1 ci sono grosse variazione di framerate da mappa a mappa... Comunque per quanto mi ricordo la tua Vega è fortunella, facevi pure più di me nei soliti bench (Fire Strike) a stock...

Comunque non mi sembra granchè come strumento di misura l'applicazione da telefono AMD. Quanto alla maniera in cui conteggino i frame medi @lucusta perdonami ma non ha minimamente senso fare ( frame minimi + massimi )/ 2 : infatti la maniera usuale (utilizzata anche dai bench integrati) è calcolare il grafico dei frame-per-second e poi, detto matematicamente, calcolare la media integrale della funzione frame(t): in altre parole somma dei frame totali generati (che si ricava sommando tutti i frame al secondo per ogni secondo, ammesso un campionamento per ogni secondo) fratto il tempo totale. I frame minimi invece non sono i minimi assoluti (spesso estremamente bassi) ma i minimi 1% che tagliano gli spike "minimi".


Prima mi pare includevano il tempo passato sotto 60 o 30 fps su tomshw...
 
È impossibile confrontare i risultati dei benchmark delle recensioni con i propri... io stesso non mi ci trovo MAI. E quando dico mai è proprio mai.
La CPU checché se ne dica conta tantissimo, poi tanto lo fa l'OS pulito ed aggiornato, la RAM di sistema (e relativi timing secondari e terziari soprattutto), che il gioco sia SSD o HDD (minima parte proprio ma loro hanno decine di giochi su HDD e staccano ed attaccano una nuovo mobo e via).
Proprio questo fatto di stacca e attacca porta con se problemi, driver mobo pescati da windows alla cavolo di cane. Chiedergli una prova ad OS pulito sarebbe utopico e irreale visto che nessuno lo ha così lindo come post format.
I fattori in gioco sono tantissimi e spesso hanno anche giochi non aggiornati, com'è possibile confrontarsi? :asd:
 
@wulff73 non mi è chiara una cosa dei tuoi benchmark: come fai a sapere che stai benchando (salvo la presenza di bench integrati) la stessa scena? Addirittura su BF1 ci sono grosse variazione di framerate da mappa a mappa... Comunque per quanto mi ricordo la tua Vega è fortunella, facevi pure più di me nei soliti bench (Fire Strike) a stock...

Comunque non mi sembra granchè come strumento di misura l'applicazione da telefono AMD. Quanto alla maniera in cui conteggino i frame medi @lucusta perdonami ma non ha minimamente senso fare ( frame minimi + massimi )/ 2 : infatti la maniera usuale (utilizzata anche dai bench integrati) è calcolare il grafico dei frame-per-second e poi, detto matematicamente, calcolare la media integrale della funzione frame(t): in altre parole somma dei frame totali generati (che si ricava sommando tutti i frame al secondo per ogni secondo, ammesso un campionamento per ogni secondo) fratto il tempo totale. I frame minimi invece non sono i minimi assoluti (spesso estremamente bassi) ma i minimi 1% che tagliano gli spike "minimi".


Prima mi pare includevano il tempo passato sotto 60 o 30 fps su tomshw...
Infatti non sono in grado di dire quale sia la scena di BF1 benchata da Igor ma di sicuro so una cosa: è impossibile ottenere i suoi risultati a stock (75 fps di media) in qualsiasi mappa e con un PC che funziona normalmente. Tant'è che su Guru3D per la Vega 56 viene data in sede di recensione una media di 107 fps a ultra in wqhd:

http://www.guru3d.com/articles-pages/amd-radeon-rx-vega-56-8gb-review,15.html

Ti risparmio altri grafici ma generalmente stanno tutti tra i 90 ed i 100.

Poi c'è da dire che quando mi faccio carico di citare un risultato su un gioco è ben evidenziata la condizione di come è stato ottenuto: BF1@100fps è ben al di sotto della mia media che faccio normalmente. Detto ciò diamo a Cesare quel che è di Cesare e diciamo che il buon Igor ha centrato i risultati di Doom, Wildlands e più o meno The Division ma lasciamo proprio perdere BF1 e Destiny 2.

Inviato da Lenovo P2a42 tramite App ufficiale di Tom\'s Hardware Italia Forum
 
Ultima modifica:
nel frattempo MSI ha fatto uscire il suo marchio GPP per le Vega: Mech.
https://videocardz.com/newz/msi-launches-radeon-rx-mech-2-series
ma spero che molti boicotteranno questi marchi che hanno dato letteralmente il c... ad nvidia!
fallissero tutti miseramente.

Per ora si legge comunque solo RX580 sulla scatola e non vengono nominate le Vega. Non mi pare tuttavia un marchio stile "GPP" con le relative implicazioni commerciali che comporta...mi pare di più solamente una denominazione di un prodotto stile "Armor" o "Aorus". Se la avessero chiamata "Gundam Edition" sarebbe staro uguale (e probabilmente gliene avrei comprata una solo per il gusto di averla).
 
Ultima modifica:
@wulff73
Comunque non mi sembra granchè come strumento di misura l'applicazione da telefono AMD. Quanto alla maniera in cui conteggino i frame medi @lucusta perdonami ma non ha minimamente senso fare ( frame minimi + massimi )/ 2 : infatti la maniera usuale (utilizzata anche dai bench integrati) è calcolare il grafico dei frame-per-second e poi, detto matematicamente, calcolare la media integrale della funzione frame(t): in altre parole somma dei frame totali generati (che si ricava sommando tutti i frame al secondo per ogni secondo, ammesso un campionamento per ogni secondo) fratto il tempo totale. I frame minimi invece non sono i minimi assoluti (spesso estremamente bassi) ma i minimi 1% che tagliano gli spike "minimi".
Prima mi pare includevano il tempo passato sotto 60 o 30 fps su tomshw...

quello che scrivi sarebbe già meglio, ma... media integrale di una curva irregolare?
la cosa semplice è di eliminare i dati abberranti e contare i frame e dividerli per il tempo di esecuzione del test.
a quel punto hai il tempo madio di un frame e quindi, l'inverso, i frame al secondo medi (nulla di così complicato, insomma, ed ottieni ugualmente la media integrale).
la questione è il trishold per cui un frame si deve ritenere abberrante, sia in valore massimo che in valore minimo.
semplicemente fai un diagramma sul percentile dei frame (ossia ordinate con FPS e ascissa come somma di tot frame che fanno quegli FPS).
alla gaussiana, poi, elimini quelli che non superano un certo valore in ascissa (1, 2, 10, a seconda del numero totale di frame generati... ecco quindi che trovi il max percentile superiore, esempio 99/100% eliminando il centile di massimi fps e il percentile inferiore, 1/100%, eliminando l'1% dei valori più bassi.
su quelli sommi tutto il resto, elimini il tempo di quei frame, dividi i frame che ottieni per questo tempo ed ottieni una media ponderata curata dai abberranti.

quindi non è che ci vuole molto... basta una calcolatrice, per farlo.

invece (max+min)/2 è il calcolo che c'è nella maggiorparte dei benchmark integrati, e non come indichi tu.

la questione è che queste cose non vengono mai esplicitamente dichiarate.
nessuno dichiara come tratta i dati in analisi.

Per ora si legge comunque solo RX580 sulla scatola e non vengono nominate le Vega. Non mi pare tuttavia un marchio stile "GPP" con le relative implicazioni commerciali che comporta...mi pare di più solamente una denominazione di un prodotto stile "Armor" o "Aorus". Se la avessero chiamata "Gundam Edition" sarebbe staro uguale (e probabilmente gliene avrei comprata una solo per il gusto di averla).

MSI ha già marchi "gaming", quindi questo Mech è solo a causa del GPP.
una volta spesi i soldi per cambiare design alla cover e alla scatola, l'hanno comunque fatto uscire.
d'altronde Nvidia voleva principalemente questo;
ottenuto il tutto era quasi inutile dare soldi "in modo trasparente" alle aziende, ed ha chiuso il programma.

video molto bello di GN che spiega le metriche (avg, 1% min e 0,1% min) utilizzate (che per quanto mi riguarda sono diventate lo standard).

è di questo che ti parlo.
ottimo sapere qual'è il valore dell'1/100%, inutile sapere lo 0.1/100%, perchè fa parte dei dati abberranti, dati con cui non devi effettuare una media ponderata che ti descrive l'andamento.
se questi spike si presentano spesso, entreranno automaticamente in media, abbassandola.
 
Ultima modifica:
@lucusta si il calcolo che hai proposto tu di mediai integrale è quello che ho detto io (senza inverso :asd:). comunque i valori aberranti di cui parli tu vengono abbastanza diluiti sia nella media (non max+min/2) che nell'1%. Per fare un bench del genere è sufficiente MSI AB... Quali sono i giochi che calcolano la media come dici tu?

Sia gli 0.1% spesso e volentieri sono molto importanti ed evidenziano fenomeni di stuttering, e GN ha posto, in quel video, l'attenzione proprio su questo.

Comunque nvidia l'ha ritirato il GPP...
 
Comunque nvidia l'ha ritirato il GPP...

Sì, però questa nuova serie MSI potrebbe comunque esserne figlia
Se MSI avendo aderito aveva cominciato a sviluppare il "nuovo brand" ed era arrivata al punto di averle pronte (o quasi), ormai conviene comunque lanciarlo anche se il GPP è decaduto (se ormai hai perso tempo a preparare i nuovi design e tutto il resto, lanciando le nuove schede dai comunque una rinfrescata alla lineup e magari invogli qualcuno ad acquistare cercando di recuperare le spese)
 
@lucusta si il calcolo che hai proposto tu di mediai integrale è quello che ho detto io (senza inverso :asd:). comunque i valori aberranti di cui parli tu vengono abbastanza diluiti sia nella media (non max+min/2) che nell'1%. Per fare un bench del genere è sufficiente MSI AB... Quali sono i giochi che calcolano la media come dici tu?

Sia gli 0.1% spesso e volentieri sono molto importanti ed evidenziano fenomeni di stuttering, e GN ha posto, in quel video, l'attenzione proprio su questo.

Comunque nvidia l'ha ritirato il GPP...

come ti ho scritto è utile sapere lo 0.1/100%, ma se lo stuttering si presenta spesso verrebbe comunque compreso nella media.
c'è un'altro indice che ti può essere utile, ma che è più laborioso da documentare.
si tratta di ricostruire la media temporale (ossia di creare una media che si riferisce solo a un tempo limitato) ed andare a verificare il rumore sulla curva.
frequenza e intensità degli spike, anche piccoli, danno l'indice di regolarità della curva; con la giusta soglia di treshold ripulisci da rumore tipico (2 o 3 fps in più o in meno) e rilevi gli spike.
per renderli graficamente puoi poi cercare di amplificarli.
avevo fatto un'analisi tipica sui dati grezzi che mi ero fatto spedire da un sito di review italiano, trattandoli nel modo in cui era possibile (di solito si fa con una furier, ma se hai un solo campionamento... ti devi ingegnare).
il risultato è che era evidente quando il sistema s'impuntava per il caricamento su VRAM.
andando a calcolare la quantità media di dati risultava come il driver separava e caricava i nuovi blocchi da elaborare, e vedevi che soluzioni ad 8GB su un determinato titolo, caricavano ogni 3.6GB e soluzioni a 6GB ogni 2.8GB (parliamo di un'analisi di confronto sulla serie 300 e 900).
fare 3GB di dati, in FHD, non compressi, ci metti ben poco... risultavano spike anche a meno di 1 secondo, ed è l'effetto di stuttering (ad entità inferiori non percepisci bene la non continuità delle immagini).
era una worksheet che pesava sui 300MB... credo che l'abbia buttata :/
 
come ti ho scritto è utile sapere lo 0.1/100%, ma se lo stuttering si presenta spesso verrebbe comunque compreso nella media.
c'è un'altro indice che ti può essere utile, ma che è più laborioso da documentare.
si tratta di ricostruire la media temporale (ossia di creare una media che si riferisce solo a un tempo limitato) ed andare a verificare il rumore sulla curva.
frequenza e intensità degli spike, anche piccoli, danno l'indice di regolarità della curva; con la giusta soglia di treshold ripulisci da rumore tipico (2 o 3 fps in più o in meno) e rilevi gli spike.
per renderli graficamente puoi poi cercare di amplificarli.
avevo fatto un'analisi tipica sui dati grezzi che mi ero fatto spedire da un sito di review italiano, trattandoli nel modo in cui era possibile (di solito si fa con una furier, ma se hai un solo campionamento... ti devi ingegnare).
il risultato è che era evidente quando il sistema s'impuntava per il caricamento su VRAM.
andando a calcolare la quantità media di dati risultava come il driver separava e caricava i nuovi blocchi da elaborare, e vedevi che soluzioni ad 8GB su un determinato titolo, caricavano ogni 3.6GB e soluzioni a 6GB ogni 2.8GB (parliamo di un'analisi di confronto sulla serie 300 e 900).
fare 3GB di dati, in FHD, non compressi, ci metti ben poco... risultavano spike anche a meno di 1 secondo, ed è l'effetto di stuttering (ad entità inferiori non percepisci bene la non continuità delle immagini).
era una worksheet che pesava sui 300MB... credo che l'abbia buttata
:/

Invece no : GN nel suo esempio ha portato un Pentium dual core e un Athlon quad su GTA V: il primo presentava stuttering visibile durante il benchmark ma fps medi superiori, il secondo niente stuttering ma fps inferiori, rendendo comunque l'esperienza decisamente migliore. Quest'informazione è percepibile durante l'esperienza ma veniva tagliata da 1% FPS e sopratutto da AVG FPS. Veniva espressa al contrario solamente dagli 0.01%. Ripeto, non sono dati usciti da test condotti da me ma da Gamer Nexus, risultati con cui sono d'accordo.

Riguardo l'analisi spettrale, praticamente intendi identificare le frequenze alte e tagliarle? :asd: Più che altro imho sarebbe utile pesare di meno secondo qualche metrica i framerate massimi, perchè spesso danno un apporto "neutro-negativo" all'esperienza e al contrario confluiscono negli FPS medi, in un bench. Mi viene in mente il bench di Digital Foundry su Crysis 3: Fps massimi superiori e Fps minimi inferiori (insomma aumenta la varianza) rispetto ai Ryzen: decisamente meglio questi, ma nell'avg questa informazione non c'è. Però alla fine conta tanto quanto dato che fanno fede gli 0.1%, essendo più interessante "l'estremo inferiore" che l'estremo superiore degli fps medi, non so se mi spiego...

Comunqe non ho ben capito cosa hai scritto sotto (la parte evidenziata)...
 
nuovi driver
Comunqe non ho ben capito cosa hai scritto sotto (la parte evidenziata)...
questa parte?
"come ti ho scritto è utile sapere lo 0.1/100%, ma se lo stuttering si presenta spesso verrebbe comunque compreso nella media."
che la media è una estrapolazione statistica che appiattisce tutto, quindi per andare a guardare un "rumore" frequente devi adoperare altri indici, come la media temporale (dividi il campionamento in tante parti e vai a fare la media e lo scostamento della varianza su quelle parti, poi medi la varianza.
noi chimici usiamo questo tipo di trattamento sul rumore di fondo:
http://www.chimica.unipd.it/andrea.tapparo/pubblica/CAProcInd_Lez_2.pdf
ma non è molto diverso da quello di un circuito elettronico o addirittura acustico (le basi di studio sono le medesime).
 
nuovi driver
Comunqe non ho ben capito cosa hai scritto sotto (la parte evidenziata)...
questa parte?
"come ti ho scritto è utile sapere lo 0.1/100%, ma se lo stuttering si presenta spesso verrebbe comunque compreso nella media."
che la media è una estrapolazione statistica che appiattisce tutto, quindi per andare a guardare un "rumore" frequente devi adoperare altri indici, come la media temporale (dividi il campionamento in tante parti e vai a fare la media e lo scostamento della varianza su quelle parti, poi medi la varianza.
noi chimici usiamo questo tipo di trattamento sul rumore di fondo:
http://www.chimica.unipd.it/andrea.tapparo/pubblica/CAProcInd_Lez_2.pdf
ma non è molto diverso da quello di un circuito elettronico o addirittura acustico (le basi di studio sono le medesime).
No ci mancherebbe che non ho capito quella, non starei proprio qui a parlare :asd: quella successiva evidenziata in corsivo

edit: questo

andando a calcolare la quantità media di dati risultava come il driver separava e caricava i nuovi blocchi da elaborare, e vedevi che soluzioni ad 8GB su un determinato titolo, caricavano ogni 3.6GB e soluzioni a 6GB ogni 2.8GB (parliamo di un'analisi di confronto sulla serie 300 e 900).
fare 3GB di dati, in FHD, non compressi, ci metti ben poco... risultavano spike anche a meno di 1 secondo, ed è l'effetto di stuttering (ad entità inferiori non percepisci bene la non continuità delle immagini).
era una worksheet che pesava sui 300MB... credo che l'abbia buttata
:/

si effettivamente era poco chiaro cosa intendessi avendo evidenziato due parti :P
 
Ultima modifica:
No ci mancherebbe che non ho capito quella, non starei proprio qui a parlare :asd: quella successiva evidenziata in corsivo

ah, quello, ok.
era una comparativa in cui si parlava proprio di micro stuttering...cerco il file...

benchmark.webp
roba un pò datata (mi ricordavo più nuova, in effetti... i file riportano data 2013).
questo è il benchmark di battelfront 3 effettuato da una testata di settore che gentilmente mi fornì i dati grezzi da elaborare.
per accentuare il microstuttering ed il jitter delle varie schede ho elaborato un sistema, atipico, di attenuazione della media ed accentuazione delle differenze.
graficamente risulta questo;
il grafico in bordò è l'accentuazione di quello in rosso relativo alla 7970.

in quell'occasione si stava valutanto il comportamento delle diverse schede, e si è notato che le varie nvidia presentavano un jitter ripetuto ogni tot a seconda della scheda e quindi della diversa dotazione di memoria.
le nvidia avevano stuttering soprattutto quando la memoria era impegnata a caricare nuovi dati.
la 7990 presentava invece un grafico molto più regolare, ma con micro stuttering più accentuato e in modo più persistente, perchè i caricamenti in RAM erano effettuati costantemente ma in maniera meno intensa di quanto facevano le nvidia.
sommando il numero di frame da una serie di picchi all'altra si poteva stabilire la "pesantezza" del caricamento.

poi c'erano un sacco di altre analisi, ma... non le trovo (tengo tutto, ma certe volte non sullo stesso PC e non mi và di riaccendere gli altri e cercarli)

Immagine.webp
qui puoi vedere l'elaborazione della pulizia del segnale cercando di evidenziare le discrepanze dalla curva "media temporale".
i picchetti che vedi nella curva di color nero sono le rilevanze non eliminabili che causano "l'impuntamento" a vista di una sequenza video e che causano il fastidio di vedere degli "strappi" (la nera è logicamente traslata di un valore +40, in modo da averla sullo stesso grafico e confrontare in modo facile le curve).

come vedi in questo grafico si evidenzia il momento, regolare, in cui la memoria è satura e rende più difficoltosa la coerente sequenza del video perchè ogni circa 6 secondi deve ricaricare la cache e la banda della memoria è condivisa tra dare i dati alle pipeline e prendere dati dal PCIe.

molte "cure" che si effettuano tramite driver dipendono proprio da come impostare il caricamento dei dati senza andare a ledere il comportamento della GPU nell'elaborazione per mancata fornitura di dati.
 
Ultima modifica:
Stavo notando che ogni tanto c'è la possibilità di trovare delle Vega 56 nella Warehouse di Amazon a circa 450/475€.
Secondo voi varrebbe la pena rischiare considerando il prezzo umano?
 
Stavo notando che ogni tanto c'è la possibilità di trovare delle Vega 56 nella Warehouse di Amazon a circa 450/475€.
Secondo voi varrebbe la pena rischiare considerando il prezzo umano?

se sono vendute e spedite da amazon warehouse nessun rischio, io il tentativo lo farei
 
Pubblicità
Pubblicità
Indietro
Top