UFFICIALE AMD RDNA3

Pubblicità
ma queste schede sfruttano linee pci 5? Qualora la installassi su mobo che ha solo linee pci 3 o 4, ciò castrerebbe di quanto le prestazioni della scheda video?
 
Comunque la stessa AMD dichiara di aver presentato la 6900XTX come competitor della 4080 16GB, quindi aspetterei di vedere come vanno davvero (entrambe, perché anche della 4080 ad oggi non abbiamo alcuna review) per trarre conclusioni

https://videocardz.com/newz/amd-con...3-may-be-supported-by-pre-rdna3-architectures

Interessante però che FSR3 pare non vogliano renderlo esclusivo della serie 7000


Altra cosa interessante è il sensore di temperatura "ambiente" posto sopra al dissi vicino ad una ventola: https://videocardz.com/newz/amd-radeon-rx-7900-xtx-has-a-hidden-ambient-temperature-sensor
Se lo implementano su tutte aiuterà molto a capire se un utente ha problemi di surriscaldamento da cosa derivano
 
Comunque la stessa AMD dichiara di aver presentato la 6900XTX come competitor della 4080 16GB, quindi aspetterei di vedere come vanno davvero (entrambe, perché anche della 4080 ad oggi non abbiamo alcuna review) per trarre conclusioni

https://videocardz.com/newz/amd-con...3-may-be-supported-by-pre-rdna3-architectures

Interessante però che FSR3 pare non vogliano renderlo esclusivo della serie 7000


Altra cosa interessante è il sensore di temperatura "ambiente" posto sopra al dissi vicino ad una ventola: https://videocardz.com/newz/amd-radeon-rx-7900-xtx-has-a-hidden-ambient-temperature-sensor
Se lo implementano su tutte aiuterà molto a capire se un utente ha problemi di surriscaldamento da cosa derivano
Chiaramente se è concorrente 4080 tutto si ridimensiona. Potrebbero avere in mente un'uscita di altra top di gamma per competere con la 4090. Comunque è da valutare bene se va come o più di una 4080 e in RT come andrà.
 
Evidentemente non hanno voluto correre dietro ad nvidia sulla folle strada dei 450w (che poi sono di più in realtà).

Resta vero che la curva di efficienza peggiora all'aumentare della potenza, però resto convinto che una 7900XTX da 350w, facendola arrivare anche lei a 450w, quindi con un +28% di potenza, la 4090 in raster se la mangia a colazione.

Magari vedremo qualche custom interessante che batte la 4090 uscendo dai 350w previsti da AMD !


Ripeto, amd ha un sacco di opzioni lato hw per aumentare le prestazioni, nvidia invece ha già dato tutto e forse pure troppo (vedasi connettori che prendono fuoco). La superficie totale dei dies di amd occupa 530mm^2 mentre quello monolitico di nvidia arriva a 610mm^2.... (+20%)! Ed è pure su un nodo produttivo migliore ! Cioè hanno qualsiasi cosa a loro favore e di più non possono avere.
 
Ultima modifica:
Chiaramente se è concorrente 4080 tutto si ridimensiona. Potrebbero avere in mente un'uscita di altra top di gamma per competere con la 4090. Comunque è da valutare bene se va come o più di una 4080 e in RT come andrà.
Diciamo che a prescindere da tutto a me sarebbe venuto comunque da confrontarla a quella visto che saranno (circa) sulla stessa fascia di prezzo
Quindi se in raster andasse di più (come verrebbe da dedurre dai proclami della presentazione) ed in RT fosse similare alla 4080, anche se non raggiunge le 4090 in nessuno dei due campi, per me è comunque una bella vittoria di AMD

Ma è ovvio che va valutato una volta uscite le recensioni, per ora abbiamo solo qualche leak ed i proclami delle aziende, non sono dati sufficienti per trarre conclusioni secondo me
 
Questa immagine la dedico ad @Avets 😅

AMD-Navi-31-RDNA-3-GPU-For-Radeon-RX-7900-XTX-RX-7900-XT-Graphics-Cards.jpg


Fonte:
 
Bellissima, dovrebbero farci dei poster e regalarli assieme alle 7900xtx.
Dopo tutto questo è un momento abbastanza rivoluzionario e certamente inedito nella storia delle gpu (per multi die).
 
lo sai sulla carta sembrano essere ottime schede
Si', sembra proprio abbiano fatto un ottimo lavoro.

La cosa che notavo e' che mancano i Tensor Cores.
E' stata proprio una scelta di AMD, dato che su CDNA (le GPU da DataCenter) i Tensor Cores li hanno.
Ed in effetti e' da un po' che mi sto chiedendo se NVidia non stia un po' "snaturando" le schede grafiche: lato gaming i tensor cores vengono utilizzati praticamente "solo" per il DLSS... ma un algoritmo di AI puo' funzionare con e senza TC, vedi XeSS di Intel che funziona anche su GPU AMD... anche se l'accelerazione dei TC sulle operazioni con le matrici e' indiscutibile, ma bisogna anche alimentarli.
(i.e. dette A,B,C,D matrici 4x4... Nvidia, via TC, puo' calcolare: D = C + A*B , in un ciclo di clock)

Tornando ad AMD, hanno colmato alcune lacune che avevano con NVidia: bfloat16 (finalmente), 2 ALU con possibilita' di elaborazione in parallelo di int e float... novita' che NVidia aveva introdotte con la serie 3000.

La 7900XTX e' piu' veloce rispetto alla 4090 nelle operaioni in half-FP32 (FP16 = 16bit virgola mobile) e double-FP32 (FP64 = 64bit virgola mobile: addirittura di 3x, anche se gli FP64 in gaming praticamente non si usamo)
A mio avviso si colloca dietro alla 4080 in RT (credo sara' a livello della 3090TI), ma dovrebbe batterla in raster... e ad un prezzo decisamente inferiore.
Oltre ad introdurre, per prima, alcune novita' tecnologiche (al di la' del chiplet), come il DP 2.1 (mica si son fermati al 2.0 😉) e i 12bit colore (anche se non ci sono ancora monitor), PCIe 5.0 ... etc.

Ho davvero voglia di provarne una!


prego solo ceh non fanno casini con i driver

Non credo ci saranno piu' (?) "grossi" problemi con i drivers... o almeno, se ci saranno, credo proprio che saranno sporadici.
Da quel periodo AMD si e' data molto da fare lato software... parlo da 3/4 anni a qeusta parte.
Fino al 2018 non c'era nemmeno un "profiler" per analizzare le performance del codice prodotto per le GPU AMD.
E le GPU non sono come le CPU che utilizzano il medesimo assembler: ognuna ha il proprio "codice macchina" e sono le API (DX/Vulkan/OpenGL/etc) che si interfacciano ai driver, i quali contengono le routine a basso livello per la singola GPU, quindi il software (l'ottimizzazione) e' importante esattamente come l'hardware (vedasi i problemi di performance delle GPU Intel).
Il GAP piu' importante AMD lo deve colmare su questo terreno: sviluppo e ricerca software... ma sembra che adesso, da 3/4 anni appunto, abbiano cambiato stategia (era ora!) ed hanno lavorato moltissimo anche in questo ambito, ma c'e' anche tanto da recuperare.
 
Ultima modifica:
La cosa che notavo e' che mancano i Tensor Cores.
E' stata proprio una scelta di AMD, dato che su CDNA (le GPU da DataCenter) i Tensor Cores li hanno.
Ed in effetti e' da un po' che mi sto chiedendo se NVidia non stia un po' "snaturando" le schede grafiche: lato gaming i tensor cores vengono utilizzati praticamente "solo" per il DLSS... ma un algoritmo di AI puo' funzionare con e senza TC, vedi XeSS di Intel che funziona anche su GPU AMD... anche se l'accelerazione dei TC sulle operazioni con le matrici e' indiscutibile, ma bisogna anche alimentarli.

Sempre detto, nvidia fa schede prima per l'ambito professionale, e POI cerca di venderle al meglio ai gamers, facendogli credere che tutte le cose implementate per scopi professionali in realtà servano anche a loro e che dovrebbero pure spendere di più per averle.
 
Ok AMD hai la mia attenzione. Ora attendo i benchmark (perché questa presentazione è stata RIDICOLA senza un numero che sia uno 🤬) ed i prezzi in euro dei vari costruttori, poi potrei decidere di ridare fiducia ad AMD dopo la controversa esperienza con la 5700XT…

Sotto i 1300 euro una 7900XTX la potrei considerare, fosse solo per dare nei denti al giacchetta le sue ridicole 4080 a 1600…
 
Tutti stanno a dire che AMD ci ha salvato, io vorrei sapere ancora come !!!, se queste schede arrivano sul mercato dai 1100 - 1300 euro in su per avere prestazioni in RTX simili alla 3080, io preferisco prendermi a questo punto una 3080 che sta adesso tranquillamente sulle 700-800 euro ..... anche perchè in raster per adesso non è un problema di nessuna scheda video, discorso diverso se il prezzo di queste RDNA 3 è sotto le 1000 euro allora si che si puo parlare di salvataggio.....
 
Tutti stanno a dire che AMD ci ha salvato, io vorrei sapere ancora come !!!, se queste schede arrivano sul mercato dai 1100 - 1300 euro in su per avere prestazioni in RTX simili alla 3080, io preferisco prendermi a questo punto una 3080 che sta adesso tranquillamente sulle 700-800 euro ..... anche perchè in raster per adesso non è un problema di nessuna scheda video, discorso diverso se il prezzo di queste RDNA 3 è sotto le 1000 euro allora si che si puo parlare di salvataggio.....
Anzitutto c'e' da dire che ancora non ci sono benchmark indipendenti sulle schede RDNA3.

Se invece consideriamo cio' che dice AMD, ossia 1.5x in RT rispetto alla 6950XT (in realta' dice fino a 1.8x), dovrebbe essere testa a testa con le 3090TI.
Mentre in raster dovrebbe superare la 4080 (e della quale ancora non ci sono benchmark indipendenti: solo quelli NVidia).

Quindi bisogna solo attendere per vedere dove si collocano nell'attuale graduatoria.

Una cosa "buona" AMD comunque l'ha fatta: ha prezzato l'ammiraglia allo stesso prezzo della 6900XT al debutto, 2 anni fa... in controtendenza con le ultime uscite delle GPU.
(ma oggi il rapporto EUR/USD e' decisamente diverso... e noi in europa ne paghiamo lo scotto)
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top