UFFICIALE AMD Big NAVI RDNA2

Steeb

Utente Attivo
196
67
si ma a quel punto prendi al massimo 3070 o 6700XT.

Vorrei anche sfruttare i 165hz del mio monitor il più possibile, con rtx e annessi. 3070 me lo fà usare bene solo con dlss, ma possiamo aspettarci di averlo ovunque? io non lo so.
Post unito automaticamente:

In ogni caso aspetto le versioni Ti, non compro di certo ora (anche perchè è difficile )
 

IoSonoLeggenda

Utente Èlite
4,898
2,096
CPU
Intel Core i7 12700k + Thermalright Contact Frame
Dissipatore
Noctua NH-U14S
Scheda Madre
MSI PRO Z690-A
HDD
Samsung NVMe 980 Pro 2Tb
RAM
2x8Gb G.Skill Trident Z RGB 3200Mhz c14
GPU
Asus TUF 3080 OC 10Gb
Audio
Audinst HUD-Mini
Monitor
Acer XB271HU (IPS, 2k, 144Hz, G-sync)
PSU
NZXT C850 + UPS Cyber Power 650W
Case
NZXT H7 Flow
Periferiche
Auricolari VE Monk - Tastiera Logitech G513 - Mouse Logitech G Pro Wireless
OS
Windows 11 Pro 64-bit

crimescene

Super Moderatore
Staff Forum
Utente Èlite
68,275
31,790
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
Vorrei anche sfruttare i 165hz del mio monitor il più possibile, con rtx e annessi. 3070 me lo fà usare bene solo con dlss, ma possiamo aspettarci di averlo ovunque? io non lo so.

Che hai un montiro a 165hz non significa che devi fare semrpe 165hz è una convinzione errata

E' coem pensare che siccome hai la ferrari devi andare dovunque a 250 all'ora.

Alcuni giochi non saranno mai pensati per l'alta frequenza semplicemente perchè questa è inutile, mentre quelli a cui serve arrivano già a 165 hz
 

mr_loco

quello cattivo
Utente Èlite
29,549
12,046
Perchè in moltissimi sono ancora con i monitor fullhd, inspiegabilmente secondo me.
è abbastanza tecnico il motivo dell fullHD, se giochi a fps come fortnite, apex, overwatch, cod e competitivi vari, un monitor troppo grande tende a distrarre e a far distogliere lo sguardo dalla parte centrale
 

met92

Above And Beyond The Call
Utente Èlite
3,400
831
CPU
AMD Ryzen 5950x
Dissipatore
Corsair h150i Elite Capellix
Scheda Madre
Asus ROG X570 Dark Hero
HDD
Seagate IronWolf Pro 2Tb + Samsung 970 Evo Plus 1Tb
RAM
G Skill 32gb DDR4 3600Mhz
GPU
Asrock RX 6800xt phantom gaming
Monitor
LG 27GN850
PSU
Seasonic Focus GX-1000
Case
Corsair 780T
Periferiche
Cuffie: Audio-Technica ATH-ADG1X Tastiera: Corsair K70 RGB MK.2 Mouse: Logitech g502 lightspeed
Sembra essere quasi confermato i 16gb di vram per NAVI21 e 12gb per NAVI22. La cosa strana è che dicono che la 21 abbia un bus di 256 mentre la 22 un bus di 192... Non sono bassi? ?
 

crimescene

Super Moderatore
Staff Forum
Utente Èlite
68,275
31,790
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
Sembra essere quasi confermato i 16gb di vram per NAVI21 e 12gb per NAVI22. La cosa strana è che dicono che la 21 abbia un bus di 256 mentre la 22 un bus di 192... Non sono bassi? ?
PEr quello a cui è abituata AMD sì
 

pribolo

Moderatore
Staff Forum
Utente Èlite
38,395
13,800
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Endorfy Navis F280
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
Sembra essere quasi confermato i 16gb di vram per NAVI21 e 12gb per NAVI22. La cosa strana è che dicono che la 21 abbia un bus di 256 mentre la 22 un bus di 192... Non sono bassi? ?

Lo sono. Ma si parlava anche di una enorme cache che ridurrebbe il bisogno di banda: questo darebbe anche una mano all'efficienza.

Non so. Io continuo a rimanere scettico sul fatto che AMD potrà arrivare alla RTX3080, raddoppiando quindi la performance della 5700xt. Vero è che parliamo di un chip grande il doppio rispetto a Navi10, ma questa grossa cache e la necessità di implementare il ray tracing ruberanno per forza di cose spazio.

E' anche vero che stando a sentire le dichiarazione di AMD con un +50% perf\watt e un TDP di 300 watt la performance sarebbe il doppio rispetto alla 5700XT: è un calcolo banale, 300 è il 36% più di 225 e 1.5*1.36 fa circa 2.
Ma il punto è che: sapranno mantenere questa promessa del +50% di efficienza senza un grosso salto di processo produttivo e implementando contemporaneamente il ray tracing? Sarebbe un salto architetturale immenso: un mezzo miracolo ai miei occhi (relativamente) inesperti.

Mi limito a osservare che come nel caso delle slide Nvidia questo +50% potrebbe essere un best case scenario e non una stima realistica di come si comporterà la scheda con applicazioni reali.
Oppure quel +50% è reale e allora AMD avrà schede competitive con tutte le rivali Nvidia almeno dal punto di vista delle prestazioni in raster e dei consumi, ad eccezione forse della 3090.
 
Ultima modifica:
U

Utente cancellato 79971

Ospite
Sembra essere quasi confermato i 16gb di vram per NAVI21 e 12gb per NAVI22. La cosa strana è che dicono che la 21 abbia un bus di 256 mentre la 22 un bus di 192... Non sono bassi? ?
Ne stanno sparando di ogni in questi giorni, anche che ci siano sullo stesso Die il bus gddr6 e quello hbm2...

Io credo molto alla voce dei 256bit con 16GB gddr6 16g da 512GBs di banda passante e nuovo sistema di cache per risolvere i problemi di banda limitata e consumo, se questo risulterà vero sarà un colpaccio e un colpo di genio del Team Rosso.

vediamo.
 

crimescene

Super Moderatore
Staff Forum
Utente Èlite
68,275
31,790
CPU
AMD Ryzen 7800x3d
Dissipatore
Artic Freeze 2 360
Scheda Madre
ROG STRIX B650 A wifi
HDD
Nvme Sabrent 1TB SSD 128 Gb SHDD 2TB HDD 3TB
RAM
64GB DDR5 Vengeance 6000 cl 30
GPU
PNY RTX 4080
Audio
Realtek Hd Audio
Monitor
1 AOC Q27G3XMN mini LED 180 hz 2.LG Ultragear 27GL850 QHD 144 hz
PSU
Corsair HX750i
Case
Corsair 5000X ARGB
Periferiche
Meccanica
Net
TIm 200 Mega
OS
Windows 11 Pro
E' anche vero che stando a sentire le dichiarazione di AMD con un +50% perf\watt e un TDP di 300 watt la performance sarebbe il doppio rispetto alla 5700XT: è un calcolo banale, 300 è il 36% più di 225 e 1.5*1.36 fa circa 2.
Ma il punto è che: sapranno mantenere questa promessa del +50% di efficienza senza un grosso salto di processo produttivo e implementando contemporaneamente il ray tracing? Sarebbe un salto architetturale immenso: un mezzo miracolo ai miei occhi (relativamente) inesperti.

Lo trovo abbastanza difficile
 
U

Utente cancellato 79971

Ospite
Lo sono. Ma si parlava anche di una enorme cache che ridurrebbe il bisogno di banda: questo darebbe anche una mano all'efficienza.

Non so. Io continuo a rimanere scettico sul fatto che AMD potrà arrivare alla RTX3080, raddoppiando quindi la performance della 5700xt. Vero cè che parliamo di un chip grande il doppio rispetto a Navi10, ma questa grossa cache e la necessità di implementare il ray tracing ruberanno per forza di cose spazio.

E' anche vero che stando a sentire le dichiarazione di AMD con un +50% perf\watt e un TDP di 300 watt la performance sarebbe il doppio rispetto alla 5700XT: è un calcolo banale, 300 è il 36% più di 225 e 1.5*1.36 fa circa 2.
Ma il punto è che: sapranno mantenere questa promessa del +50% di efficienza senza un grosso salto di processo produttivo e implementando contemporaneamente il ray tracing? Sarebbe un salto architetturale immenso: un mezzo miracolo ai miei occhi (relativamente) inesperti.
Mi limito a osservare che come nel caso delle slide Nvidia questo +50% potrebbe essere un best case scenario e non una stima realistica di come si comporterà la scheda con applicazioni reali.
Si il calcolo banale è proprio quello coadiuvato dal fatto che a marzo dicevano questo:
non lascia spazio a molte interpretazioni se non puntare al Top, 4k senza compromessi e con il Ray Tracing.
Navi2X_Master_678x452.png

Navi_Features.png

Navi_Gen_PPW.png

inoltre si parla di questi brevetti:
 
Ultima modifica da un moderatore:

pribolo

Moderatore
Staff Forum
Utente Èlite
38,395
13,800
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Endorfy Navis F280
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
Si il calcolo banale è proprio quello coadiuvato dal fatto che a marzo dicevano questo:
non lascia spazio a molte interpretazioni se non puntare al Top, 4k senza compromessi e con il Ray Tracing.
Navi2X_Master_678x452.png

Navi_Features.png

Navi_Gen_PPW.png

inoltre si parla di questi brevetti:

Quando usciranno vedremo se le slide sono realistiche o sono stati ottimisti.

Ricordo che con Zen superarono l'obbiettivo di IPC che avevano dichiarato (+40% su Piledriver mi pare), ma ricordo anche uno slogan "poor volta" per il lancio delle Vega che non riuscirono ad andare oltre alle performance di una 1080.
Quindi le dichiarazioni del marketing vanno sempre prese con le pinze, ma non sempre si rilevano esagerate.
 
U

Utente cancellato 79971

Ospite
Quando usciranno vedremo se le slide sono realistiche o sono stati ottimisti.

Ricordo che con Zen superarono l'obbiettivo di IPC che avevano dichiarato (+40% su Piledriver mi pare), ma ricordo anche uno slogan "poor volta" per il lancio delle Vega che non riuscirono ad andare oltre alle performance di una 1080.
Quindi le dichiarazioni del marketing vanno sempre prese con le pinze, ma non sempre si rilevano esagerate.
si ma sta storia del poor volta(ge) è farlocca, era scritto voltage appunto, anche perchè poi volta nel gaming non esiste quindi non vedo perchè farne uno slogan.

anche con rdna1 hanno superato le aspettative, parlano di +50% perf/watt su GCN 14nm, in realtà è mooolto di più:
performance-per-watt_2560-1440.png

+100% sulla rx580, +85% su Vega64 e +60% su Vega56, sullo stesso nodo produttivo i 7nm fa +30% su VII che è sempre GCN semplicemente shrinkata con doppia banda e clock simili.
E considera che questa è una review al lancio, oggi vanno pure il 10% di più consumando uguale, quindi mettici un altro 10% di perf/watt ottimizzando i driver con uarch nuova.
 
  • Mi piace
Reazioni: pribolo

met92

Above And Beyond The Call
Utente Èlite
3,400
831
CPU
AMD Ryzen 5950x
Dissipatore
Corsair h150i Elite Capellix
Scheda Madre
Asus ROG X570 Dark Hero
HDD
Seagate IronWolf Pro 2Tb + Samsung 970 Evo Plus 1Tb
RAM
G Skill 32gb DDR4 3600Mhz
GPU
Asrock RX 6800xt phantom gaming
Monitor
LG 27GN850
PSU
Seasonic Focus GX-1000
Case
Corsair 780T
Periferiche
Cuffie: Audio-Technica ATH-ADG1X Tastiera: Corsair K70 RGB MK.2 Mouse: Logitech g502 lightspeed
Ne stanno sparando di ogni in questi giorni, anche che ci siano sullo stesso Die il bus gddr6 e quello hbm2...

Io credo molto alla voce dei 256bit con 16GB gddr6 16g da 512GBs di banda passante e nuovo sistema di cache per risolvere i problemi di banda limitata e consumo, se questo risulterà vero sarà un colpaccio e un colpo di genio del Team Rosso.

vediamo.

Mah secondo me le HBM non vengono sfruttate bene ed è già stato dimostrato.
Ma se fanno schede da 256 e da 512 (chip cut e chip full) i costi non aumentano? Nel senso non devono cambiare pcb per implementare nuove linee oppure è gestito tutto dal chip e il pcb non centra nulla?
 

pribolo

Moderatore
Staff Forum
Utente Èlite
38,395
13,800
CPU
i5 13600KF @5.4/4.3 GHz
Dissipatore
Endorfy Navis F280
Scheda Madre
MSI Z690 Tomahawk Wifi DDR4
HDD
Samsung 990 Pro 2TB e Crucial MX500 2TB
RAM
Crucial Ballistix 2x16GB 3200MT/s CL16 @4000C17
GPU
Asus TUF RTX 4070 Ti Super
Monitor
LG 27UL650 UHD
PSU
Seasonic Prime TX-750
Case
Sharkoon CA200M
OS
Windows 11 Pro
si ma sta storia del poor volta(ge) è farlocca, era scritto voltage appunto, anche perchè poi volta nel gaming non esiste quindi non vedo perchè farne uno slogan.

anche con rdna1 hanno superato le aspettative, parlano di +50% perf/watt su GCN 14nm, in realtà è mooolto di più:
performance-per-watt_2560-1440.png

+100% sulla rx580, +85% su Vega64 e +60% su Vega56, sullo stesso nodo produttivo i 7nm fa +30% su VII che è sempre GCN semplicemente shrinkata con doppia banda e clock simili.
E considera che questa è una review al lancio, oggi vanno pure il 10% di più consumando uguale, quindi mettici un altro 10% di perf/watt ottimizzando i driver con uarch nuova.

Non ricordavo il dettaglio del poor voltage. Mi era rimasto in mente il "poor volta" ma effettivamente non ho ricontrollato. Comunque era giusto per fare un esempio: credo che sparate di marketing si possano ricordare per più o meno tutte le aziende se si andasse a cercare.

Per quanto riguarda il salto di efficienza tra GCN e RDNA, vero, è stato grosso, anche se dipende molto da che schede andiamo a confrontare (la 5700 è molto più efficiente della 5700xt).
Comunque, al di là del discorso slide, in quel caso il processo produttivo ha dato una grossa mano: ci fu un bel salto nodo che questa volta non ci sarà. Infatti confrontando l'efficienza di Radeon VII con la 5700xt (ma anche con la 5700 come fai tu) la differenza è decisamente inferiore: ce la faranno questa volta a fare +50% quasi da soli?
Post unito automaticamente:

Mah secondo me le HBM non vengono sfruttate bene ed è già stato dimostrato.
Ma se fanno schede da 256 e da 512 (chip cut e chip full) i costi non aumentano? Nel senso non devono cambiare pcb per implementare nuove linee oppure è gestito tutto dal chip e il pcb non centra nulla?

Trasformare un chip full con bus da 512bit in un cut con bus da 256bit molto difficilmente ha senso a livello economico perchè butti via un sacco di silicio (lasciando perdere il pcb che comunque deve essere predisposto per accogliere 16 chip di memoria). Ma difficilmente vedremo bus così grandi in questa generazione.
 
U

Utente cancellato 79971

Ospite
Mah secondo me le HBM non vengono sfruttate bene ed è già stato dimostrato.
Ma se fanno schede da 256 e da 512 (chip cut e chip full) i costi non aumentano? Nel senso non devono cambiare pcb per implementare nuove linee oppure è gestito tutto dal chip e il pcb non centra nulla?

le hbm2 sono ottime, il loro problema è che nel desktop ci sono bassi margini di guadagno e mettere hbm2 farebbe altro che abbassarli ulteriormente.
infatti nVidia usa hbm2 in Ga100 e precedenti , e le gddr6 nelle desktop e Quadro.

In realtà si è sempre parlato di 384bit per Navi21 e 256bit per Navi22, poi con i vari tagli fai le SKU di mezzo o inferiori.

Non ricordavo il dettaglio del poor voltage. Mi era rimasto in mente il "poor volta" ma effettivamente non ho ricontrollato. Comunque era giusto per fare un esempio: credo che sparate di marketing si possano ricordare per più o meno tutte le aziende se si andasse a cercare.

Per quanto riguarda il salto di efficienza tra GCN e RDNA, vero, è stato grosso, anche se dipende molto da che schede andiamo a confrontare (la 5700 è molto più efficiente della 5700xt).
Comunque, al di là del discorso slide, in quel caso il processo produttivo ha dato una grossa mano: ci fu un bel salto nodo che questa volta non ci sarà. Infatti confrontando l'efficienza di Radeon VII con la 5700xt (ma anche con la 5700 come fai tu) la differenza è decisamente inferiore: ce la faranno questa volta a fare +50% quasi da soli?
Post unito automaticamente:



Trasformare un chip full con bus da 512bit in un cut con bus da 256bit molto difficilmente ha senso a livello economico perchè butti via un sacco di silicio (lasciando perdere il pcb che comunque deve essere predisposto per accogliere 16 chip di memoria). Ma difficilmente vedremo bus così grandi in questa generazione.

5700XT è tirata di fabbrica a stock, per superare di netto 2070 e avvicinarsi il più possibile a 2070super, logicamente perde un buon 10% di per/watt con le tensioni tirare a 1.20v, mentre 5700 gira a 1v.

Beh certo, il nodo fa un buon 30~50%, ma appunto 30% è tutto di architettura e per essere la prima vera revisione è molto.
Ora come facciano a fare +50% su stesso nodo francamente non lo so, sarà questa nuovo sistema di cache probabilmente oltre alle CU nuovamente ottimizzate.

Poi lo scaling alle alte risoluzioni sul perf/watt aumenta con le GPU grosse, vedi 3080 che in FHD e QHD non guadagna nulla da questo punto di vista, mentre in 4k a seconda delle review guadagna dal 10 al 20%. in perf/watt.

Vedremo se dicono il vero o no ?
 

Ci sono discussioni simili a riguardo, dai un'occhiata!

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili