UFFICIALE AMD RDNA3

Pubblicità
Mah, io spero abbia la decenza, Nvidia, di presentare la RTX3070ti con un costo inferiore, tipo 849 o 799 dollari. Così sarebbe tra molte virgolette """competitiva""". Lo sarebbe per lo meno rispetto all'offerta AMD, perchè piazzare una scheda che va come una vecchia RTX3090\RTX3080ti (più o meno) al prezzo della RX 7900 XT mi sembra una mossa suicida.
Ok, la RX 7900 XT è rimasta sotto le aspettative e va solo poco di più di una RTX3090ti, ma comunque sarebbe sufficiente a battere la futura RTX 4070ti di un discreto margine in rastering.

Comunque credo anche io che sarà presentata, tristemente, a 899 dollari e avrà un rapporto prezzo prestazioni disastroso come tutte le schede nuove. Ma va bene, tanto io non compro niente.
 
Io non mi capacito di come sia uscito sto colabrodo di architettura, dopo l'ottimo lavoro con rdna2.
Ci sono casi in cui la differenza è dello 0%, e non hanno neanche portato le memorie ai numeri della 6900 XT.
0% con "doppie alu", 50% in più di shader engine, registri maggiorati, banda passante...



Immagine 2022-12-16 164050.webpImmagine 2022-12-16 164100.webp
 
Io non mi capacito di come sia uscito sto colabrodo di architettura, dopo l'ottimo lavoro con rdna2.
Ci sono casi in cui la differenza è dello 0%, e non hanno neanche portato le memorie ai numeri della 6900 XT.
0% con "doppie alu", 50% in più di shader engine, registri maggiorati, banda passante...



Visualizza allegato 448250Visualizza allegato 448251
Oltre che quella è la XT non la XTX poi ti sembra che giri a 2,2 o la 6900 xt a 2,3 ?
Forse c'è da leggere meglio di che prova si tratta
 
Però effettivamente sulla carta rdna3 dovrebbe performare molto meglio di rdna2. Lo fa in alcuni casi ma non sono assolutamente la norma e la media poi è deludente.
Non so cosa abbiano sbagliato ma se sono i soliti drivers allora è davvero uno scandalo 😑 vediamo che combinano per gennaio ma comunque il lancio se lo sono fregato, avevano il vento in poppa, mai come prima c'era desiderio di vedere amd vincere, ed hanno mandato tutto all aria.
 
Ma il punto della questione è il Ray tracing, se non gli si dà importanza queste sono buone schede superiori ad Nvidia, poi bisogna valutare da dove si arriva, se si possiede già schede come RTX 3000 oppure si viene da rdna1-2 ecc ecc...

Se si considera importante RTX ,allora tanti saluti Nvidia è la scelta preferenziale se si ha i soldi RTX 4000 altrimenti la serie 3000.

Se si è fanboy, entusiaster ecc ci si fa spennare , perché giustamente i fanboy meritano di essere spennati a dovere!!!
 
Ma è soprattutto in raster che ha deluso. Doveva battere la 4080 e magari stare vicino alla 4090 e invece ha pareggiato con la 4080.
 
Oltre che quella è la XT non la XTX poi ti sembra che giri a 2,2 o la 6900 xt a 2,3 ?
Forse c'è da leggere meglio di che prova si tratta
No, forse c'è da capire i test...
Hanno portato i clock delle due gpu a frequenze tali da avere il prodotto tra frequenza e compute units costante. Infatti 80 * 2.3 è circa uguale a 84 * 2.2
Il test migliore possibile sarebbe a parità di frequenza, ma c'è una differenza di 4 compute units, quindi hanno preferito optare per questo compromesso.
Così facendo riesci a indagare quanto il guadagno delle prestazioni è dato dall'architettura e quanto banalmente dalle frequenze.
C'è un 10% scarso di guadagno medio in raster e qualcosa di più in ray tracing, con casi limite che scendono addirittura a ZERO.
Non dovrebbe essere così strano, se non fosse che la 7900 XT ha una banda passante enormemente superiore...
Un test ancora migliore si potrebbe fare abbassando le frequenze delle memorie della 7900 XT (cosa non ancora possibile) per matchare la banda passante della 6900 XT. Presumibilmente perdi ancora prestazioni, e ricordo che in alcuni casi limite la 7900 XT ha un vantaggio pari a ZERO. Facile che scenda sotto lo zero.
Ma non finisce qui, perché una è una scheda da 6 macro blocchi, da 6 rasterizzatori e 6*32 pixel, l'altra è fatta da 4 blocchi, 4 rasterizzatori e 4*32 pixel. Facile che un confronto a parità di condizioni sia ancora più sfavorevole per rdna3, a meno che non ha un grosso problema a livello di scaling, ma a quel punto perché tagliare una cut con 6 blocchi e 84 CU quando potevano fare 5 e 80?
Ci basta? No, perché RDNA3 ha i registri maggiorati e le famose compute units dual issue, quindi il doppio dei tflops (ovviamente a livello puramente teorico). Circa +50% di transistor per compute unit stimati, secondo i dati estrapolati dalla densità media.

Ricapitolando... la 7900 XT dovrebbe avere un boost:
1. Per la banda passante maggiore
2. Per i 6 shader engine
3. Per il DOPPIO dei TFLOPS
4. Per tutto il resto già scritto e non scritto (tipo le grandi feature che leggi nelle slide)
Tutta questa roba porta un 10% in scarso in raster... si sono visti boost migliori con il solo overclock delle memorie
 
Sono test e rimangono tali, punto. La 6900xt al giorno d'oggi ha sicuramente una stabilità driver molto più solida della 7900xt. Diamogli tempo, appena trovano la quadra per far esprimere al meglio la potenza di rdna 3 il gap si alzerà eccome.

L'hardware grafico bisognerebbe testarlo non solo all'inizio, ma anche nel periodo di maturità, cosicché anche il rapporto prezzo/prestazioni sia più chiaro e definito.

Per ora queste sono schede grafiche che costano 100-300€ in più del loro valore ATTUALE, poco da fare. Verranno acquistate da coloro che ne carpiscono la potenzialità futura, o magari sono semplicemente attratti dall'estetica delle reference. Io per esempio, sono sincero, in questi giorni non riesco a distogliere lo sguardo da quella maledetta reference che ora sta a 1060€ su amazon, tra l'altro ho un buono amazon che potrei sfruttare quando voglio, inoltre c'è il pagamento rateale di cofidis che rende la scimmia sempre più grande. Sto resistendo alla tentazione, per ora...
Quale altra scelta potrei fare? Ogni tanto dò un occhio alle 6800/6800xt (sempre le xfx) che ora, strano a dirsi, ma si sono stabilite ad un prezzo inferiore di circa 50€ rispetto al loro msrp. Ho anche sbirciato il prezzo delle rtx 3080, tutte sui 1000-1100€, bah. Prezzi di m..... 🤬
 
Quale altra scelta potrei fare?
6800xt magari usata ma ancora in garanzia secondo me. Magari quella figata della nitro+.
Dovrebbe essere la scheda migliore per fps/prezzo in assoluto (senza contare rt ovvio).

Una 7000 presa subito lo vedo come un atto di fede. Vero che AMD migliora sempre i drivers ma siamo così sicuri che ci riuscirà anche questa volta con una architettura multi die nuova? Chi ci dice che non c'è un bottleneck hardware?
Da quando l'hanno annunciata il 3 novembre è passato un mese e mezzo e la situazione non è migliorata di nulla secondo me, perché mi rifiuto di pensare che il 3 novembre fossero presi ancora peggio di adesso come performance.
Sinceramente 1000 euro io non li punterei sulla fiducia nei driver di AMD sebbene la storia passata parli in loro favore 😬💶😬

Ps. La xfx 6800 Mercury 219 ecc... L ho avuta. Bella scheda, enorme dissipatore, la mia prendeva un +10% in oc stabile.
 
Sono test e rimangono tali, punto. La 6900xt al giorno d'oggi ha sicuramente una stabilità driver molto più solida della 7900xt. Diamogli tempo, appena trovano la quadra per far esprimere al meglio la potenza di rdna 3 il gap si alzerà eccome.

L'hardware grafico bisognerebbe testarlo non solo all'inizio, ma anche nel periodo di maturità, cosicché anche il rapporto prezzo/prestazioni sia più chiaro e definito.

Per ora queste sono schede grafiche che costano 100-300€ in più del loro valore ATTUALE, poco da fare. Verranno acquistate da coloro che ne carpiscono la potenzialità futura, o magari sono semplicemente attratti dall'estetica delle reference. Io per esempio, sono sincero, in questi giorni non riesco a distogliere lo sguardo da quella maledetta reference che ora sta a 1060€ su amazon, tra l'altro ho un buono amazon che potrei sfruttare quando voglio, inoltre c'è il pagamento rateale di cofidis che rende la scimmia sempre più grande. Sto resistendo alla tentazione, per ora...
Quale altra scelta potrei fare? Ogni tanto dò un occhio alle 6800/6800xt (sempre le xfx) che ora, strano a dirsi, ma si sono stabilite ad un prezzo inferiore di circa 50€ rispetto al loro msrp. Ho anche sbirciato il prezzo delle rtx 3080, tutte sui 1000-1100€, bah. Prezzi di m..... 🤬
Se non vedo non credo. Ho finito nello sperare nei dei driver miracolosi e nelle feature nascoste.
Chi ci dice che non sia semplicemente un disastro di hardware? Anche vega doveva volare ma non si è mai discostata dall'intorno di una 1080, in media.
 
No, forse c'è da capire i test...
Hanno portato i clock delle due gpu a frequenze tali da avere il prodotto tra frequenza e compute units costante. Infatti 80 * 2.3 è circa uguale a 84 * 2.2
Il test migliore possibile sarebbe a parità di frequenza, ma c'è una differenza di 4 compute units, quindi hanno preferito optare per questo compromesso.
Così facendo riesci a indagare quanto il guadagno delle prestazioni è dato dall'architettura e quanto banalmente dalle frequenze.
C'è un 10% scarso di guadagno medio in raster e qualcosa di più in ray tracing, con casi limite che scendono addirittura a ZERO.
Non dovrebbe essere così strano, se non fosse che la 7900 XT ha una banda passante enormemente superiore...
Un test ancora migliore si potrebbe fare abbassando le frequenze delle memorie della 7900 XT (cosa non ancora possibile) per matchare la banda passante della 6900 XT. Presumibilmente perdi ancora prestazioni, e ricordo che in alcuni casi limite la 7900 XT ha un vantaggio pari a ZERO. Facile che scenda sotto lo zero.
Ma non finisce qui, perché una è una scheda da 6 macro blocchi, da 6 rasterizzatori e 6*32 pixel, l'altra è fatta da 4 blocchi, 4 rasterizzatori e 4*32 pixel. Facile che un confronto a parità di condizioni sia ancora più sfavorevole per rdna3, a meno che non ha un grosso problema a livello di scaling, ma a quel punto perché tagliare una cut con 6 blocchi e 84 CU quando potevano fare 5 e 80?
Ci basta? No, perché RDNA3 ha i registri maggiorati e le famose compute units dual issue, quindi il doppio dei tflops (ovviamente a livello puramente teorico). Circa +50% di transistor per compute unit stimati, secondo i dati estrapolati dalla densità media.

Ricapitolando... la 7900 XT dovrebbe avere un boost:
1. Per la banda passante maggiore
2. Per i 6 shader engine
3. Per il DOPPIO dei TFLOPS
4. Per tutto il resto già scritto e non scritto (tipo le grandi feature che leggi nelle slide)
Tutta questa roba porta un 10% in scarso in raster... si sono visti boost migliori con il solo overclock delle memorie

Però scusami, se posti due grafici, tra l'altro di un test un po' particolare come quello, spiegando poco o nulla a e senza linkare la fonte (in modo che si possa andare a leggere le spiegazioni), come facciamo noi a capire? 😅
Se la prossima volta linki la fonte ci fai un favore👌(comunque è sempre buona cosa farlo)

Comunque ora ho capito la logica del test. Test accademico, ma interessante.
Concordo sul fatto che con tutti i miglioramenti apportati e la banda aggiuntiva l'incremento di prestazioni è davvero troppo risicato. Non conosco così bene le architetture grafiche per poter dare (o immaginare) una spiegazione, ma non credo sia solo questione di software.

Un dubbio che mi è venuto leggendo è che RDNA3, da dichiarazioni di AMD, dovrebbe avere due clock differenziati, uno più alto per il front end, uno un po' più basso(tipo 200MHz in meno) per gli shaders. 2.2GHz che clock è?; perchè, se come credo, è il clock generico della GPU, gli shaders credo stiano funzionando un pochino più bassi (e quindi la potenza "teorica" e pratica diminuisce).

Se non vedo non credo. Ho finito nello sperare nei dei driver miracolosi e nelle feature nascoste.
Chi ci dice che non sia semplicemente un disastro di hardware? Anche vega doveva volare ma non si è mai discostata dall'intorno di una 1080, in media.

Sì anche su questo sono d'accordo. Punto primo perchè i soldi io li tiro fuori adesso, quindi pretendo che la scheda vada bene adesso, o in altri termini, pago per le prestazioni che vedo. Qualche ragionamento sul futuro lo si può fare, ma sono speranze o al massimo ipotesi, non certezze, quindi non può essere un grosso pro\contro in sede di acquisto.

In secondo luogo perchè il mito di AMD che migliora i driver va un po' spiegato.
Io ricordo che ci furono grossi miglioramenti di prestazioni grazie ai driver, rispetto alle Nvidia di riferimento, per le schede GCN, tipo la HD7970 per intenderci. Ma si parlva di una architettura rivoluzionata rispetto alla precedente e ci stava che all'inizio ci fosse del potenziale inespresso.

Un altro salto in avanti lo fecero R9 290x\390x (e simili) rispetto alle GTX970\GTX980, nel corso della loro vita utile, ma più che merito dei driver, fu dovuto al fatto che era un periodo di transizione dalle DX11 alle DX12 e l'architettura AMD era più adatta alle DX12 (o meno adattata alle DX11, vedendola in altro modo).

Le Vega, come dici tu, non fecero mai grossi passi in avanti. RDNA1 forse in parte sì, ma anche qui torniamo a un'architettura quasi rivoluzionaria rispetto alla precedente e comunque i primi driver per le RX5000 erano disastrosi.
Le RX6000, in questi 2 anni, non si sono mosse rispetto alle Nvidia di riferimento: se andate a vedere i benchmark, grossomodo la situazione che c'era all'uscita c'è anche adesso.

Quindi non sono sicuro che RDNA3 riceverà un boost così grosso dai driver. Magari qualche punto percentuale rispetto alle Nvidia lo guadagneranno, perchè comunque i driver attuali sembrano acerbi e l'architettura presenta novità abbastanza significative rispetto a RDNA2 (ma non la chiamerei rivoluzione).
Però non credo che i nuovi driver cambieranno radicalmente la percezione del prodotto che abbiamo adesso: una RX7900 XTX ora va quanto una RTX4080 (pochissimo meglio), forse in futuro farà +5%, ma non credo farà mai +10-15 di media, per intenderci.
 
Però scusami, se posti due grafici, tra l'altro di un test un po' particolare come quello, spiegando poco o nulla a e senza linkare la fonte (in modo che si possa andare a leggere le spiegazioni), come facciamo noi a capire? 😅
Se la prossima volta linki la fonte ci fai un favore👌(comunque è sempre buona cosa farlo)


Un dubbio che mi è venuto leggendo è che RDNA3, da dichiarazioni di AMD, dovrebbe avere due clock differenziati, uno più alto per il front end, uno un po' più basso(tipo 200MHz in meno) per gli shaders. 2.2GHz che clock è?; perchè, se come credo, è il clock generico della GPU, gli shaders credo stiano funzionando un pochino più bassi (e quindi la potenza "teorica" e pratica diminuisce).


Le Vega, come dici tu, non fecero mai grossi passi in avanti. RDNA1 forse in parte sì, ma anche qui torniamo a un'architettura quasi rivoluzionaria rispetto alla precedente e comunque i primi driver per le RX5000 erano disastrosi.
Le RX6000, in questi 2 anni, non si sono mosse rispetto alle Nvidia di riferimento: se andate a vedere i benchmark, grossomodo la situazione che c'era all'uscita c'è anche adesso.
Sono test così comuni che francamente non mi sembrava necessario specificare. C'è anche scritta la fonte nelle immagini.

Salvo google translate non sia un po' ciucco (è pur sempre una traduzione automatica dal tedesco...), non specifica il clock del front end, quindi darei per scontato siano uguale.
Hanno anche fatto un lieve overclock delle memorie della 6900 XT, ma è poca roba e ci sono sempre quasi 300 GB/s di differenza tra i due chip.
Qui avrebbero le compute units dual issue che praticamente funzionano a (meno della) metà, ma bisogna vedere quanto riescono davvero a parallelizzare in un contesto reale.
 
Sono test così comuni che francamente non mi sembrava necessario specificare. C'è anche scritta la fonte nelle immagini.

Salvo google translate non sia un po' ciucco (è pur sempre una traduzione automatica dal tedesco...), non specifica il clock del front end, quindi darei per scontato siano uguale.
Hanno anche fatto un lieve overclock delle memorie della 6900 XT, ma è poca roba e ci sono sempre quasi 300 GB/s di differenza tra i due chip.
Qui avrebbero le compute units dual issue che praticamente funzionano a (meno della) metà, ma bisogna vedere quanto riescono davvero a parallelizzare in un contesto reale.

Vero, ho letto adesso che c'è scritto il nome della testata in trasparenza. Comunque se linki la fonte quando posti un grafico è meglio: lo dico a te, ma anche agli altri. Rendete più facile la vita agli altri.

Al di là di questo, non credo si possano impostare i due clock singolarmente sulle RDNA3: credo che il front end clock rimanga sempre 200MHz più alto. Ma devo approfondire la questione, non sono sicuro: nelle recensioni che ho letto non se ne faceva menzione (nemmeno nelle prove di overclock).
Ma forse la frequenza segnata è quella degli shaders, quindi 2.2GHz dovrebbe essere "vera", casomai c'è parte del chip che funziona a 2.4GHz, quindi una situazione ancora peggiore dal punto di vista dell'efficienza dell'architettura.
 
Ciao a tutti,
Sto seriamente pensando di passare dalla 3060 12GB alla 6800 16GB. l'unico dubbio che ho è il ray tracing, dite che si sentirà molto questa differenza? 🤓
 
Pubblicità
Pubblicità
Indietro
Top