UFFICIALE AMD Big NAVI RDNA2

Pubblicità
si ma a quel punto prendi al massimo 3070 o 6700XT.

Vorrei anche sfruttare i 165hz del mio monitor il più possibile, con rtx e annessi. 3070 me lo fà usare bene solo con dlss, ma possiamo aspettarci di averlo ovunque? io non lo so.
--- i due messaggi sono stati uniti ---
In ogni caso aspetto le versioni Ti, non compro di certo ora (anche perchè è difficile )
 
Vorrei anche sfruttare i 165hz del mio monitor il più possibile, con rtx e annessi. 3070 me lo fà usare bene solo con dlss, ma possiamo aspettarci di averlo ovunque? io non lo so.

Che hai un montiro a 165hz non significa che devi fare semrpe 165hz è una convinzione errata

E' coem pensare che siccome hai la ferrari devi andare dovunque a 250 all'ora.

Alcuni giochi non saranno mai pensati per l'alta frequenza semplicemente perchè questa è inutile, mentre quelli a cui serve arrivano già a 165 hz
 
Perchè in moltissimi sono ancora con i monitor fullhd, inspiegabilmente secondo me.
è abbastanza tecnico il motivo dell fullHD, se giochi a fps come fortnite, apex, overwatch, cod e competitivi vari, un monitor troppo grande tende a distrarre e a far distogliere lo sguardo dalla parte centrale
 
Sembra essere quasi confermato i 16gb di vram per NAVI21 e 12gb per NAVI22. La cosa strana è che dicono che la 21 abbia un bus di 256 mentre la 22 un bus di 192... Non sono bassi? ?
 
Sembra essere quasi confermato i 16gb di vram per NAVI21 e 12gb per NAVI22. La cosa strana è che dicono che la 21 abbia un bus di 256 mentre la 22 un bus di 192... Non sono bassi? ?

Lo sono. Ma si parlava anche di una enorme cache che ridurrebbe il bisogno di banda: questo darebbe anche una mano all'efficienza.

Non so. Io continuo a rimanere scettico sul fatto che AMD potrà arrivare alla RTX3080, raddoppiando quindi la performance della 5700xt. Vero è che parliamo di un chip grande il doppio rispetto a Navi10, ma questa grossa cache e la necessità di implementare il ray tracing ruberanno per forza di cose spazio.

E' anche vero che stando a sentire le dichiarazione di AMD con un +50% perf\watt e un TDP di 300 watt la performance sarebbe il doppio rispetto alla 5700XT: è un calcolo banale, 300 è il 36% più di 225 e 1.5*1.36 fa circa 2.
Ma il punto è che: sapranno mantenere questa promessa del +50% di efficienza senza un grosso salto di processo produttivo e implementando contemporaneamente il ray tracing? Sarebbe un salto architetturale immenso: un mezzo miracolo ai miei occhi (relativamente) inesperti.

Mi limito a osservare che come nel caso delle slide Nvidia questo +50% potrebbe essere un best case scenario e non una stima realistica di come si comporterà la scheda con applicazioni reali.
Oppure quel +50% è reale e allora AMD avrà schede competitive con tutte le rivali Nvidia almeno dal punto di vista delle prestazioni in raster e dei consumi, ad eccezione forse della 3090.
 
Ultima modifica:
Sembra essere quasi confermato i 16gb di vram per NAVI21 e 12gb per NAVI22. La cosa strana è che dicono che la 21 abbia un bus di 256 mentre la 22 un bus di 192... Non sono bassi? ?
Ne stanno sparando di ogni in questi giorni, anche che ci siano sullo stesso Die il bus gddr6 e quello hbm2...

Io credo molto alla voce dei 256bit con 16GB gddr6 16g da 512GBs di banda passante e nuovo sistema di cache per risolvere i problemi di banda limitata e consumo, se questo risulterà vero sarà un colpaccio e un colpo di genio del Team Rosso.

vediamo.
 
E' anche vero che stando a sentire le dichiarazione di AMD con un +50% perf\watt e un TDP di 300 watt la performance sarebbe il doppio rispetto alla 5700XT: è un calcolo banale, 300 è il 36% più di 225 e 1.5*1.36 fa circa 2.
Ma il punto è che: sapranno mantenere questa promessa del +50% di efficienza senza un grosso salto di processo produttivo e implementando contemporaneamente il ray tracing? Sarebbe un salto architetturale immenso: un mezzo miracolo ai miei occhi (relativamente) inesperti.

Lo trovo abbastanza difficile
 
Lo sono. Ma si parlava anche di una enorme cache che ridurrebbe il bisogno di banda: questo darebbe anche una mano all'efficienza.

Non so. Io continuo a rimanere scettico sul fatto che AMD potrà arrivare alla RTX3080, raddoppiando quindi la performance della 5700xt. Vero cè che parliamo di un chip grande il doppio rispetto a Navi10, ma questa grossa cache e la necessità di implementare il ray tracing ruberanno per forza di cose spazio.

E' anche vero che stando a sentire le dichiarazione di AMD con un +50% perf\watt e un TDP di 300 watt la performance sarebbe il doppio rispetto alla 5700XT: è un calcolo banale, 300 è il 36% più di 225 e 1.5*1.36 fa circa 2.
Ma il punto è che: sapranno mantenere questa promessa del +50% di efficienza senza un grosso salto di processo produttivo e implementando contemporaneamente il ray tracing? Sarebbe un salto architetturale immenso: un mezzo miracolo ai miei occhi (relativamente) inesperti.
Mi limito a osservare che come nel caso delle slide Nvidia questo +50% potrebbe essere un best case scenario e non una stima realistica di come si comporterà la scheda con applicazioni reali.
Si il calcolo banale è proprio quello coadiuvato dal fatto che a marzo dicevano questo:
non lascia spazio a molte interpretazioni se non puntare al Top, 4k senza compromessi e con il Ray Tracing.
Navi2X_Master_678x452.png

Navi_Features.png

Navi_Gen_PPW.png

inoltre si parla di questi brevetti:
 
Ultima modifica da un moderatore:
Si il calcolo banale è proprio quello coadiuvato dal fatto che a marzo dicevano questo:
non lascia spazio a molte interpretazioni se non puntare al Top, 4k senza compromessi e con il Ray Tracing.
Navi2X_Master_678x452.png

Navi_Features.png

Navi_Gen_PPW.png

inoltre si parla di questi brevetti:

Quando usciranno vedremo se le slide sono realistiche o sono stati ottimisti.

Ricordo che con Zen superarono l'obbiettivo di IPC che avevano dichiarato (+40% su Piledriver mi pare), ma ricordo anche uno slogan "poor volta" per il lancio delle Vega che non riuscirono ad andare oltre alle performance di una 1080.
Quindi le dichiarazioni del marketing vanno sempre prese con le pinze, ma non sempre si rilevano esagerate.
 
Quando usciranno vedremo se le slide sono realistiche o sono stati ottimisti.

Ricordo che con Zen superarono l'obbiettivo di IPC che avevano dichiarato (+40% su Piledriver mi pare), ma ricordo anche uno slogan "poor volta" per il lancio delle Vega che non riuscirono ad andare oltre alle performance di una 1080.
Quindi le dichiarazioni del marketing vanno sempre prese con le pinze, ma non sempre si rilevano esagerate.
si ma sta storia del poor volta(ge) è farlocca, era scritto voltage appunto, anche perchè poi volta nel gaming non esiste quindi non vedo perchè farne uno slogan.

anche con rdna1 hanno superato le aspettative, parlano di +50% perf/watt su GCN 14nm, in realtà è mooolto di più:
performance-per-watt_2560-1440.png

+100% sulla rx580, +85% su Vega64 e +60% su Vega56, sullo stesso nodo produttivo i 7nm fa +30% su VII che è sempre GCN semplicemente shrinkata con doppia banda e clock simili.
E considera che questa è una review al lancio, oggi vanno pure il 10% di più consumando uguale, quindi mettici un altro 10% di perf/watt ottimizzando i driver con uarch nuova.
 
Ne stanno sparando di ogni in questi giorni, anche che ci siano sullo stesso Die il bus gddr6 e quello hbm2...

Io credo molto alla voce dei 256bit con 16GB gddr6 16g da 512GBs di banda passante e nuovo sistema di cache per risolvere i problemi di banda limitata e consumo, se questo risulterà vero sarà un colpaccio e un colpo di genio del Team Rosso.

vediamo.

Mah secondo me le HBM non vengono sfruttate bene ed è già stato dimostrato.
Ma se fanno schede da 256 e da 512 (chip cut e chip full) i costi non aumentano? Nel senso non devono cambiare pcb per implementare nuove linee oppure è gestito tutto dal chip e il pcb non centra nulla?
 
si ma sta storia del poor volta(ge) è farlocca, era scritto voltage appunto, anche perchè poi volta nel gaming non esiste quindi non vedo perchè farne uno slogan.

anche con rdna1 hanno superato le aspettative, parlano di +50% perf/watt su GCN 14nm, in realtà è mooolto di più:
performance-per-watt_2560-1440.png

+100% sulla rx580, +85% su Vega64 e +60% su Vega56, sullo stesso nodo produttivo i 7nm fa +30% su VII che è sempre GCN semplicemente shrinkata con doppia banda e clock simili.
E considera che questa è una review al lancio, oggi vanno pure il 10% di più consumando uguale, quindi mettici un altro 10% di perf/watt ottimizzando i driver con uarch nuova.

Non ricordavo il dettaglio del poor voltage. Mi era rimasto in mente il "poor volta" ma effettivamente non ho ricontrollato. Comunque era giusto per fare un esempio: credo che sparate di marketing si possano ricordare per più o meno tutte le aziende se si andasse a cercare.

Per quanto riguarda il salto di efficienza tra GCN e RDNA, vero, è stato grosso, anche se dipende molto da che schede andiamo a confrontare (la 5700 è molto più efficiente della 5700xt).
Comunque, al di là del discorso slide, in quel caso il processo produttivo ha dato una grossa mano: ci fu un bel salto nodo che questa volta non ci sarà. Infatti confrontando l'efficienza di Radeon VII con la 5700xt (ma anche con la 5700 come fai tu) la differenza è decisamente inferiore: ce la faranno questa volta a fare +50% quasi da soli?
--- i due messaggi sono stati uniti ---
Mah secondo me le HBM non vengono sfruttate bene ed è già stato dimostrato.
Ma se fanno schede da 256 e da 512 (chip cut e chip full) i costi non aumentano? Nel senso non devono cambiare pcb per implementare nuove linee oppure è gestito tutto dal chip e il pcb non centra nulla?

Trasformare un chip full con bus da 512bit in un cut con bus da 256bit molto difficilmente ha senso a livello economico perchè butti via un sacco di silicio (lasciando perdere il pcb che comunque deve essere predisposto per accogliere 16 chip di memoria). Ma difficilmente vedremo bus così grandi in questa generazione.
 
Mah secondo me le HBM non vengono sfruttate bene ed è già stato dimostrato.
Ma se fanno schede da 256 e da 512 (chip cut e chip full) i costi non aumentano? Nel senso non devono cambiare pcb per implementare nuove linee oppure è gestito tutto dal chip e il pcb non centra nulla?

le hbm2 sono ottime, il loro problema è che nel desktop ci sono bassi margini di guadagno e mettere hbm2 farebbe altro che abbassarli ulteriormente.
infatti nVidia usa hbm2 in Ga100 e precedenti , e le gddr6 nelle desktop e Quadro.

In realtà si è sempre parlato di 384bit per Navi21 e 256bit per Navi22, poi con i vari tagli fai le SKU di mezzo o inferiori.

Non ricordavo il dettaglio del poor voltage. Mi era rimasto in mente il "poor volta" ma effettivamente non ho ricontrollato. Comunque era giusto per fare un esempio: credo che sparate di marketing si possano ricordare per più o meno tutte le aziende se si andasse a cercare.

Per quanto riguarda il salto di efficienza tra GCN e RDNA, vero, è stato grosso, anche se dipende molto da che schede andiamo a confrontare (la 5700 è molto più efficiente della 5700xt).
Comunque, al di là del discorso slide, in quel caso il processo produttivo ha dato una grossa mano: ci fu un bel salto nodo che questa volta non ci sarà. Infatti confrontando l'efficienza di Radeon VII con la 5700xt (ma anche con la 5700 come fai tu) la differenza è decisamente inferiore: ce la faranno questa volta a fare +50% quasi da soli?
--- i due messaggi sono stati uniti ---


Trasformare un chip full con bus da 512bit in un cut con bus da 256bit molto difficilmente ha senso a livello economico perchè butti via un sacco di silicio (lasciando perdere il pcb che comunque deve essere predisposto per accogliere 16 chip di memoria). Ma difficilmente vedremo bus così grandi in questa generazione.

5700XT è tirata di fabbrica a stock, per superare di netto 2070 e avvicinarsi il più possibile a 2070super, logicamente perde un buon 10% di per/watt con le tensioni tirare a 1.20v, mentre 5700 gira a 1v.

Beh certo, il nodo fa un buon 30~50%, ma appunto 30% è tutto di architettura e per essere la prima vera revisione è molto.
Ora come facciano a fare +50% su stesso nodo francamente non lo so, sarà questa nuovo sistema di cache probabilmente oltre alle CU nuovamente ottimizzate.

Poi lo scaling alle alte risoluzioni sul perf/watt aumenta con le GPU grosse, vedi 3080 che in FHD e QHD non guadagna nulla da questo punto di vista, mentre in 4k a seconda delle review guadagna dal 10 al 20%. in perf/watt.

Vedremo se dicono il vero o no ?
 
Pubblicità
Pubblicità
Indietro
Top