UFFICIALE AMD Big NAVI RDNA2

Pubblicità
Non mi farei troppi problemi per il RT, io sono il primo che lo voglio per sfruttarlo dove possibile, ma non sarà un tecnologia rilevante quest'anno (sta prendendo piede piano piano, dopo due anni). Ora grazie alle console probabilmente prenderà piede del tutto, ma bisognerà aspettare i primi giochi nativi PS5 e appunto almeno un anno passerà. Direi che la partita RT si giocherà appieno nel 2022 (che non vuol dire non si giochi già adesso, dico solo non è la cosa più importante da guardare imho)
 
No infatti cambia poco 5% più grosso non farebbe alcuna differenza, se va forte a 530 lo farebbe anche a 505.
Sul clock penso abbia preso i valori di targa, non è mica colpa sua se nVidia dichiara 1710mhz e poi le schede stanno a 1900 mediamente...
AMD ti dà valori di targa molto più reali questo è indiscutibile, il concetto è che 2200 potrebbe essere il boost gaming e non il massimo... Se vero è una bella botta, vuol dire solo di clock fare +20% a pari uarch. (5700xt 1850mhz clock gaming)

Non è colpa sua, ma bisogna tenerne conto... Anche io non ho mai capito perchè Nvidia sia così conservativa nel dichiarare il boost clock.

Per me no, RT ancora tutto 2021 lo vedo come un plus, non ci sono praticamente giochi e non ce ne saranno in abbondanza per i prossimi 18 mesi almeno fino a che i programmatori console inizieranno seriamente a usarlo.

Non dico che non ci debba essere eh, ma che non sposta l'ago della bilancia ancora, molto meglio avere performance Raster e efficienza superiore per minori consumi e calore.

Se posso fare un pronostico sul RT, penso che le AMD non perderanno oltre la metà delle prestazioni Raster, se faccio 100fps in RT faranno minimo 50, non di meno.

I leak danno superiore a Turing e inferiore a Ampère, direi che va bene se fosse così.
--- i due messaggi sono stati uniti ---
Discorso clock, sulla N22 ad esempio danno clock ancora superiori, intorno 2.35ghz medio, rispetto a N10 si dice stesse CU ma 192bit e un Die Size però di ben 340mmq, rispetto ai 250mmq di N10... 90mmq per fare cosa?
Ecco che si pensa alla cache e allo spazio per RT, perché le CU sono sempre 40.
A 2.35ghz fa solo di clock quasi +30%, considerando almeno un 10% di IPC, mi aspetto che come prestazioni in 180~200watt sia una simil 3070 o 2080ti (poco meno 5~10%) a massimo 400 dollari 12GB.

Sarebbe una bomba a quel prezzo.

La perdità di prestazioni in ray tracing dipende dal gioco oltre che dalla scheda, quindi non ha molto senso dire "perderanno al massimo tot": se il gioco usa il ray tracing in modo pesante perderanno tanto, anche più del 50% (vedi Metro Exodus), ma bisogna vedere quanto rispetto alle Nvidia.

La voce sulle prestazioni "tra Turing e Ampere" in RT la trovo di difficile interpretazione: si intende che se una 6900xt va quanto una 3080 (ipotesi) senza ray tracing con il ray tracing va a metà tra 3080 e 2080ti o ad esempio tra 3080 e 2080? Dipende con che scheda Turing facciamo il confronto: dal punto di vista tecnico la 3080 è sostanzialmente la sostituta della 2080ti (anche se è un po' più tagliata), ma nella line up sostituisce la 2080. Ovviamente il secondo caso sarebbe decisamente peggiore del primo.

Per quanto riguarda Navi10, se avrà davvero frequenze così alte, può anche starci che si avvicini a 2080ti e 3070 (se fa -10% in realtà sarà più vicino alla 3060ti): del resto se fosse un chip da 340mm^2, non sarebbe nemmeno molto più piccolo del GA104 della 3070 (392mm^2).
400€ sarebbe un prezzo aggressivo, ma nemmeno così tanto se pensiamo che la 3060ti probabilmente costerà uguale: bisogna vedere esattamente dove si piazzerà rispetto a 3060ti e 3070 in ray tracing e non.
Del resto dubito che AMD spenda meno a produrre una Navi22 rispetto a quanto spende Nvidia per una GA104: che i wafer di Samsung costino meno a Nvidia è risaputo, ci sarebbe da capire esattamente quanto meno e quali sono le rese. Ma se AMD vuole vendere deve essere aggressiva: non escludo che se Navi22 sarà particolarmente vicino alla 3060ti, AMD possa piazzarlo anche a un prezzo più basso di quest'ultima.

Piuttosto, strano notare che Navi22 con 40CU è dato di 340mm^2 e Navi21 con 80 è dato 505mm^2...
 
Non mi farei troppi problemi per il RT, io sono il primo che lo voglio per sfruttarlo dove possibile, ma non sarà un tecnologia rilevante quest'anno (sta prendendo piede piano piano, dopo due anni). Ora grazie alle console probabilmente prenderà piede del tutto, ma bisognerà aspettare i primi giochi nativi PS5 e appunto almeno un anno passerà. Direi che la partita RT si giocherà appieno nel 2022 (che non vuol dire non si giochi già adesso, dico solo non è la cosa più importante da guardare imho)

Certo hai ragione , però chi acquista una scheda ora vuole anche longevità, per cui si deve valutare subito la capacità da parte delle nuove schede di gestire gli effetti che poi saranno implementati . Perché almeno parlando per me , non cambio una scheda all'anno di solito.
 
Certo hai ragione , però chi acquista una scheda ora vuole anche longevità, per cui si deve valutare subito la capacità da parte delle nuove schede di gestire gli effetti che poi saranno implementati . Perché almeno parlando per me , non cambio una scheda all'anno di solito.
Sì hai ragione, ma per esperienza ho imparato a comprare schede di fascia "media" che facciano ORA quello che mi serve e a cambiarle ogni 2/3 anni massimo rispetto a prendere il top sperando mi duri 5 o 6 anni. Tanto poi gli ultimi due devi accontentarti sui dettagli o non hai nuove tecnologie (vedi 1080ti e raytracing). Quindi ho adottato quest'altra filosofia
 
Detta così è molto poco chiara, ma quell'implementazione del ray tracing mi fa abbastanza paura.
20TF per 5120 core comunque significa circa 1.95GHz, anche se potrebbe non essere l'esatta frequenza di picco
 
Detta così è molto poco chiara, ma quell'implementazione del ray tracing mi fa abbastanza paura.
20TF per 5120 core comunque significa circa 1.95GHz, anche se potrebbe non essere l'esatta frequenza di picco
Penso sia tutto tranne che il picco, sarà il base clock ~2ghz, secondo me in game starà almeno intorno 2.150ghz, non meno, con picco ~2.3ghz.

Sulla cosa del RT non si capisce cosa voglia dire, secondo me vuol dire che mentre fai RT perdi solo 25% nel Raster(1/4CU), se così è ottimo.
ti fa paura per cosa?

la cosa anche importante sono le 96rops, siccome si parlava del dimezzamento delle RBE per Engine ma con 2x degli engine, potrebbero aver cambiare i paradigmi in cui scalano le rops con le rbe, non più a blocchi di 4 ma di 6, quindi metà delle RBE doppio degli engine e 6rops e non 4 per RBE.

engine*rbe = rbe*rops= rops totali
4*4 = 16*4 = 64rops
8*2 = 16*6 = 96rops
--- i due messaggi sono stati uniti ---
 
Ultima modifica da un moderatore:
Penso sia tutto tranne che il picco, sarà il base clock ~2ghz, secondo me in game starà almeno intorno 2.150ghz, non meno, con picco ~2.3ghz.

Sulla cosa del RT non si capisce cosa voglia dire, secondo me vuol dire che mentre fai RT perdi solo 25% nel Raster(1/4CU), se così è ottimo.
ti fa paura per cosa?

la cosa anche importante sono le 96rops, siccome si parlava del dimezzamento delle RBE per Engine ma con 2x degli engine, potrebbero aver cambiare i paradigmi in cui scalano le rops con le rbe, non più a blocchi di 4 ma di 6, quindi metà delle RBE doppio degli engine e 6rops e non 4 per RBE.

engine*rbe = rbe*rops= rops totali
4*4 = 16*4 = 64rops
8*2 = 16*6 = 96rops

Perchè letta così mi sembrava significare che non hanno nessun tipo di accelerazione hardware e usano invece un gruppo di CU. Ma in realtà potrebbe anche voler dire che ci sono delle CU "speciali" con hardware a funzione fissa per il ray tracing.
Semplicemente, se ne sa ancora troppo poco.
Comunque di sicuro non significa che in ray tracing perdi il 25% di prestazioni: non funziona così...

Se confermate le 96ROPs sicuramente non fanno male, soprattutto in 4k.



Non ho capito: cosa sarebbe?
 
Si è l'infinity cache, per depositare il marchio... Qualcosa di vero ci sarà e magari sarà proprio presente in rdna2.

Sul discorso RT penso adotteranno lo stesso approccio di Microsoft, ovvero l'acceleratore ray affiancato alle tmu, magari li voleva dire che in caso di RT, 1/4 delle cu verranno occupate per quello, ma non che siano specializzate.
 
bravo stavo per metterlo io!
PS5 è una 2080/super(3060/ti), XBX X una 2080super/ti(3070), non male per delle scatolette, e questa cosa la dico da almeno 9 mesi!

Navi21 e PS5 però sono state estrapolate in base alle caratteristiche di XBX X, cioè se l'architettura fosse uguale a quella, probabile in N21, difficile in PS5 credo che Sony abbia utilizzato un altro approccio.

Fosse confermato questo, credo ci sia da stare abbastanza tranquilli anche sul fronte RT.

Ovviamente questi sono tutti valori di picco, sia per nVidia che per AMD, su strada non è che queste barrette rispecchiano poi le prestazioni, il tutto poi va incentrato al resto dell'architettura ed eventuali colli di bottiglia o di codice del gioco.
 
bravo stavo per metterlo io!
PS5 è una 2080/super(3060/ti), XBX X una 2080super/ti(3070), non male per delle scatolette, e questa cosa la dico da almeno 9 mesi!

Navi21 e PS5 però sono state estrapolate in base alle caratteristiche di XBX X, cioè se l'architettura fosse uguale a quella, probabile in N21, difficile in PS5 credo che Sony abbia utilizzato un altro approccio.

Fosse confermato questo, credo ci sia da stare abbastanza tranquilli anche sul fronte RT.

Ovviamente questi sono tutti valori di picco, sia per nVidia che per AMD, su strada non è che queste barrette rispecchiano poi le prestazioni, il tutto poi va incentrato al resto dell'architettura ed eventuali colli di bottiglia o di codice del gioco.

Ci sarebbe da capire come sono calcolati i valori per Nvidia, dato che non li ho visti riportati da altre parti; Nvidia ha sempre dichiarato le performance in gigarays per second.
In ogni caso, è vero che sono solo valori teorici di picco e poi bisogna vedere come si traduco in prestazioni con applicazioni reali, ma è ancora più vero perchè vedo nella slide indicato un "4 texture or ray ops per cycle", quindi sembra, almeno da quella slide, che le unità usate da AMD non possano fare entrambe le cose. Se è così, è uno svantaggio rispetto all'implementazione Nvidia con RT core dedicati
 
Pubblicità
Pubblicità
Indietro
Top