No, forse c'è da capire i test...
Hanno portato i clock delle due gpu a frequenze tali da avere il prodotto tra frequenza e compute units costante. Infatti 80 * 2.3 è circa uguale a 84 * 2.2
Il test migliore possibile sarebbe a parità di frequenza, ma c'è una differenza di 4 compute units, quindi hanno preferito optare per questo compromesso.
Così facendo riesci a indagare quanto il guadagno delle prestazioni è dato dall'architettura e quanto banalmente dalle frequenze.
C'è un 10% scarso di guadagno medio in raster e qualcosa di più in ray tracing, con casi limite che scendono addirittura a ZERO.
Non dovrebbe essere così strano, se non fosse che la 7900 XT ha una banda passante enormemente superiore...
Un test ancora migliore si potrebbe fare abbassando le frequenze delle memorie della 7900 XT (cosa non ancora possibile) per matchare la banda passante della 6900 XT. Presumibilmente perdi ancora prestazioni, e ricordo che in alcuni casi limite la 7900 XT ha un vantaggio pari a ZERO. Facile che scenda sotto lo zero.
Ma non finisce qui, perché una è una scheda da 6 macro blocchi, da 6 rasterizzatori e 6*32 pixel, l'altra è fatta da 4 blocchi, 4 rasterizzatori e 4*32 pixel. Facile che un confronto a parità di condizioni sia ancora più sfavorevole per rdna3, a meno che non ha un grosso problema a livello di scaling, ma a quel punto perché tagliare una cut con 6 blocchi e 84 CU quando potevano fare 5 e 80?
Ci basta? No, perché RDNA3 ha i registri maggiorati e le famose compute units dual issue, quindi il doppio dei tflops (ovviamente a livello puramente teorico). Circa +50% di transistor per compute unit stimati, secondo i dati estrapolati dalla densità media.
Ricapitolando... la 7900 XT dovrebbe avere un boost:
1. Per la banda passante maggiore
2. Per i 6 shader engine
3. Per il DOPPIO dei TFLOPS
4. Per tutto il resto già scritto e non scritto (tipo le grandi feature che leggi nelle slide)
Tutta questa roba porta un 10% in scarso in raster... si sono visti boost migliori con il solo overclock delle memorie
Però scusami, se posti due grafici, tra l'altro di un test un po' particolare come quello, spiegando poco o nulla a e senza linkare la fonte (in modo che si possa andare a leggere le spiegazioni), come facciamo noi a capire?
Se la prossima volta linki la fonte ci fai un favore
(comunque è sempre buona cosa farlo)
Comunque ora ho capito la logica del test. Test accademico, ma interessante.
Concordo sul fatto che con tutti i miglioramenti apportati e la banda aggiuntiva l'incremento di prestazioni è davvero troppo risicato. Non conosco così bene le architetture grafiche per poter dare (o immaginare) una spiegazione, ma non credo sia solo questione di software.
Un dubbio che mi è venuto leggendo è che RDNA3, da dichiarazioni di AMD, dovrebbe avere due clock differenziati, uno più alto per il front end, uno un po' più basso(tipo 200MHz in meno) per gli shaders. 2.2GHz che clock è?; perchè, se come credo, è il clock generico della GPU, gli shaders credo stiano funzionando un pochino più bassi (e quindi la potenza "teorica" e pratica diminuisce).
Se non vedo non credo. Ho finito nello sperare nei dei driver miracolosi e nelle feature nascoste.
Chi ci dice che non sia semplicemente un disastro di hardware? Anche vega doveva volare ma non si è mai discostata dall'intorno di una 1080, in media.
Sì anche su questo sono d'accordo. Punto primo perchè i soldi io li tiro fuori adesso, quindi pretendo che la scheda vada bene adesso, o in altri termini, pago per le prestazioni che vedo. Qualche ragionamento sul futuro lo si può fare, ma sono speranze o al massimo ipotesi, non certezze, quindi non può essere un grosso pro\contro in sede di acquisto.
In secondo luogo perchè il mito di AMD che migliora i driver va un po' spiegato.
Io ricordo che ci furono grossi miglioramenti di prestazioni grazie ai driver, rispetto alle Nvidia di riferimento, per le schede GCN, tipo la HD7970 per intenderci. Ma si parlva di una architettura rivoluzionata rispetto alla precedente e ci stava che all'inizio ci fosse del potenziale inespresso.
Un altro salto in avanti lo fecero R9 290x\390x (e simili) rispetto alle GTX970\GTX980, nel corso della loro vita utile, ma più che merito dei driver, fu dovuto al fatto che era un periodo di transizione dalle DX11 alle DX12 e l'architettura AMD era più adatta alle DX12 (o meno adattata alle DX11, vedendola in altro modo).
Le Vega, come dici tu, non fecero mai grossi passi in avanti. RDNA1 forse in parte sì, ma anche qui torniamo a un'architettura quasi rivoluzionaria rispetto alla precedente e comunque i primi driver per le RX5000 erano disastrosi.
Le RX6000, in questi 2 anni, non si sono mosse rispetto alle Nvidia di riferimento: se andate a vedere i benchmark, grossomodo la situazione che c'era all'uscita c'è anche adesso.
Quindi non sono sicuro che RDNA3 riceverà un boost così grosso dai driver. Magari qualche punto percentuale rispetto alle Nvidia lo guadagneranno, perchè comunque i driver attuali sembrano acerbi e l'architettura presenta novità abbastanza significative rispetto a RDNA2 (ma non la chiamerei rivoluzione).
Però non credo che i nuovi driver cambieranno radicalmente la percezione del prodotto che abbiamo adesso: una RX7900 XTX ora va quanto una RTX4080 (pochissimo meglio), forse in futuro farà +5%, ma non credo farà mai +10-15 di media, per intenderci.