No no, calma... la 390 in FHD non è efficiente... lo è la 380X ma la 390 è l'equivalente di un V8 4 litri che va in autostrada a 130Km/h: fa i 10Km/litro ma da qui ad essere efficiente ci passa il mondo :cav:
Però qui si innesta un lunghissimo discorso che sto maturando da un po' di tempo. Permettimi di fare un passo indietro.
Ti ricordi come venivano misurate le prestazioni delle VGA fino a poco dopo l'avvento di Kepler e GCN 1.0? Le misurazioni erano limitate agli FPS medi e massimi (e quelli minimi ma tenuti in minor conto). Poi, però, ci si rese conto che non era una rappresentazione reale dell'esperienza perché la variabilità nel tempo di renderizzazione dei frame incideva sulla qualità molto più degli FPS massimi e medi presi di per sé. Questo cambiamento nel metro di giudizio oggi lo diamo per scontato ma 3 anni fa fu un cambio quasi epocale.
Veniamo a oggi ed all'efficienza usando l'esempio che hai linkato. Se ci trovassimo di fronte e due VGA che, ad una determinata risoluzione, hanno prestazioni contenute nell'usuale margine di errore (+/- 1%) - ad esempio GTX 780ti, 970 e 290X in FullHD - possiamo confrontarne l'efficienza in termini di FPS/W facendo un calcolo abbastanza banale.
Però è corretto fare lo stesso confronto prendendo in considerazione VGA che mostrano risultati sensibilmente differenti? Riprendendo il test che hai linkato, in WQHD la 390 Nitro ha prestazioni superiori del 12,5% alla GTX 970 ma con una performance per Wh di gran lunga peggiore (fatto 100% la Nitro, la 970 raggiunge il 149%)... Qui si innesta il punto cardine della mia riflessione: sappiamo per esperienza diretta che consumi e prestazioni non hanno un aumento lineare perché, superato il c.d.
sweet spot, i primi aumentano molto più delle seconde, eppure non confrontiamo l'efficienza a parità di prestazioni tranne quando queste sono casualmente identiche o quasi.
Nel test da te linkato, in un tipico scenario di gioco la 390 fa registrare 261Wh contro i 156W di una 970... ma il confronto corretto sarebbe da farsi a parità di prestazioni proprio perché i consumi salgono molto più delle prestazioni stesse. Se ipotizzassimo per un attimo che lo scaling di consumi e prestazioni del GM204 sia simile a quello del GM206 che ho postato prima, per un 12% in più di prestazioni è necessario un incremento di clock del 20% a cui corrisponderebbe un aumento di consumi del 25% che, nel caso della 970 reference, significherebbe passare da poco meno di 160Wh a 200Wh con un conseguente e drastico drop dell'efficienza.
Alla fine ti starai giustamente chiedendo perché di 'sto panegirico. A parte il piacere della ricerca intellettuale, è da tempo che mi chiedo se non sia il caso di introdurre una nuova metodologia per il confronto di efficienza di VGA con prestazioni simili ma architetture diverse - sia per tipo, sia per versione - e, inoltre, se i paventati incrementi in stile Polaris (2,5X performance per W) siano davvero tali o solo "ipotetici".
Come disse lo spinnaker al vento, spero di essermi spiegato :look: