UFFICIALE AMD Big NAVI RDNA2

Pubblicità
Io invece credo semplicemente che Igor abbia avuto il leak che le Big Navi consumeranno 320W e stia cercando di fare i calcoli per arrivare a quel valore. Idem è successo con le 3080 e ci ha preso. Tra l'altro ricordo che disse chiaramente che ci sarebbe stata carenza di schede per nvidia e pure lì ci prese in pieno in anticipo. Il 7nm sarà pure meglio, ma sperare di avvicinare 3080 con 250W di TDP è pura fantascienza così come che AMD possa uscirsene con una scheda a sorpresa che vada 10% sopra a 3080.
 
Io invece credo semplicemente che Igor abbia avuto il leak che le Big Navi consumeranno 320W e stia cercando di fare i calcoli per arrivare a quel valore. Idem è successo con le 3080 e ci ha preso. Tra l'altro ricordo che disse chiaramente che ci sarebbe stata carenza di schede per nvidia e pure lì ci prese in pieno in anticipo. Il 7nm sarà pure meglio, ma sperare di avvicinare 3080 con 250W di TDP è pura fantascienza così come che AMD possa uscirsene con una scheda a sorpresa che vada 10% sopra a 3080.
Nessuno ha mai detto 250watt per battere 3080, ma sui 290watt per la Top per raddoppiare 5700xt, 270~290 come è sempre stato, vedi Hawaii con 290x ,Fiji XT con Fury X, Vega XT con Vega64 Air, e Vega20 con VII.

Come fa notare Rogame su twitter in risposta a Videocardz e a Igor, Navi21 ha stesso bus di Navi10, e Navi 10 con 8GB di Vram arriva a 220watt TGP con 180watt di TDP della sola gpu, sono +40watt tra pcb memorie e perdite, come fa Navi21 a consumare tolta la GPU di ben +100watt con solamente in più 8GB di Vram? sarebbero 60watt in più (8GB ~20watt), quindi circa 300watt totali e non 350watt.

Se parte dal presupposto che la gpu sta a 240watt, la scheda in totale arriverebbe a 300 e non 350.

Poi ci può anche stare che esista una XTX stile Vega64 liquid da 340watt con la gpu tirata alla morte di fabbrica per avere il prodotto halo che sotterra Ampere, altrimenti non avrebbe alcun senso di esistere per me come non lo aveva 3 anni fa quella scheda, dove non pareggiava 1080ti con quasi 100watt in più...
 
Penso che la sola gpu sia più vicina ai 150 che ai 100w. Un 3700x a 3.5ghz consuma 40-45w, la metà del suo consumo stock: in gaming la cpu non è sfruttata al 100% quindi non credo che contribuisca con più di 30w all' assorbimento totale.
I 16gb di gddr6 ci sono sulla console come sulla top di gamma RDNA2 quindi restano.

La perdita in efficienza dell' ali non si può valutare, ho visto la foto del Liteon che la alimenta ma non c'è il bollino 80+; idem per assorbimento di mobo,lettore BD e disco.

SI aprono 2 scenari:
- quello descritto da Igor, RDNA 2 estremamente competitiva: non si fanno calcoli, si spinge il clock al massimo a costo di aumentare l' assorbimento del 50% rispetto al punto di massima efficienza;
- non compete, le anticipazioni riguardano già la top di gamma (così come per la slide 8k di nvidia, ai risultati forniti va tolto un 10%), ed offri un prodotto meno prestante (3080 -15%) ma più efficiente (250w).

Sì, forse su CPU e RAM sono stato un po' largo, ma invece sulle perdite per l'alimentazione sono stato stretto: posto che è una pura speculazione, perchè come dici tu non ci è dato sapere di preciso nemmeno quanto sia efficiente l'alimentatore, 10% di perdite considerando la doppia trasformazione 230 -> 12 volt e 12 volt -> 1 volt e qualcosa per l'APU è poco.
Probabilmente siamo più intorno al 15-20%.
Quindi, fai pure che CPU e VRAM sono sui 60 watt, togli 30-40 watt di perdite varie, aggiungici qualche watt per gli altri componenti del sistema e per la GPU ottieni 110 watt o giù di lì (solo GPU, non un'eventuale scheda).

Nessuno ha mai detto 250watt per battere 3080, ma sui 290watt per la Top per raddoppiare 5700xt, 270~290 come è sempre stato, vedi Hawaii con 290x ,Fiji XT con Fury X, Vega XT con Vega64 Air, e Vega20 con VII.

Come fa notare Rogame su twitter in risposta a Videocardz e a Igor, Navi21 ha stesso bus di Navi10, e Navi 10 con 8GB di Vram arriva a 220watt TGP con 180watt di TDP della sola gpu, sono +40watt tra pcb memorie e perdite, come fa Navi21 a consumare tolta la GPU di ben +100watt con solamente in più 8GB di Vram? sarebbero 60watt in più (8GB ~20watt), quindi circa 300watt totali e non 350watt.

Se parte dal presupposto che la gpu sta a 240watt, la scheda in totale arriverebbe a 300 e non 350.

Poi ci può anche stare che esista una XTX stile Vega64 liquid da 340watt con la gpu tirata alla morte di fabbrica per avere il prodotto halo che sotterra Ampere, altrimenti non avrebbe alcun senso di esistere per me come non lo aveva 3 anni fa quella scheda, dove non pareggiava 1080ti con quasi 100watt in più...

Però già da quanto quel tweet era comparso, l'uso del termine TGP mi ha lasciato un po' perplesso.
AMD ultimamente è solita indicare il consumo dell'intera scheda con il termine TBP: in precedenza, come anche Nvidia, usava impropriamente la sigla TDP, che più correttamente dovrebbe indicare il consumo (e quindi il calore smaltito) dalla sola GPU.
TGP lascia un margine di incertezza ed effettivamente 255 watt sembra un valore fin troppo basso, almeno se rapportato a una scheda che dovrebbe andare poco meno rispetto alla 3080 (quella mostrata alla conferenza insomma). Faccio notare che considerando i dati della RX5700 XT (180 watt per la GPU, 225 in totale, quindi 25% in più) e ipotizzando un consumo per la sola GPU, nella variante top, di 255 watt, si ottiene come consumo complessivo circa 320 watt.
 
Questo è sicuro, ridendo e scherzando ormai siamo al 20, tra 8 giorni sapremo (almeno in parte).
E tra 9 giorni arriva la RTX3070, finalmente...
 
Sì, forse su CPU e RAM sono stato un po' largo, ma invece sulle perdite per l'alimentazione sono stato stretto: posto che è una pura speculazione, perchè come dici tu non ci è dato sapere di preciso nemmeno quanto sia efficiente l'alimentatore, 10% di perdite considerando la doppia trasformazione 230 -> 12 volt e 12 volt -> 1 volt e qualcosa per l'APU è poco.
Probabilmente siamo più intorno al 15-20%.
Quindi, fai pure che CPU e VRAM sono sui 60 watt, togli 30-40 watt di perdite varie, aggiungici qualche watt per gli altri componenti del sistema e per la GPU ottieni 110 watt o giù di lì (solo GPU, non un'eventuale scheda).



Però già da quanto quel tweet era comparso, l'uso del termine TGP mi ha lasciato un po' perplesso.
AMD ultimamente è solita indicare il consumo dell'intera scheda con il termine TBP: in precedenza, come anche Nvidia, usava impropriamente la sigla TDP, che più correttamente dovrebbe indicare il consumo (e quindi il calore smaltito) dalla sola GPU.
TGP lascia un margine di incertezza ed effettivamente 255 watt sembra un valore fin troppo basso, almeno se rapportato a una scheda che dovrebbe andare poco meno rispetto alla 3080 (quella mostrata alla conferenza insomma). Faccio notare che considerando i dati della RX5700 XT (180 watt per la GPU, 225 in totale, quindi 25% in più) e ipotizzando un consumo per la sola GPU, nella variante top, di 255 watt, si ottiene come consumo complessivo circa 320 watt.
TGP o TBP sono la stessa cosa praticamente:
Total graphics Power
Total board power

Diverso invece il discorso TDP che indica il dimensionamento del dissipatore in base alla GPU e quindi al suo consumo dato che tutto il lavoro generato si trasforma in calore.
 
TGP o TBP sono la stessa cosa praticamente:
Total graphics Power
Total board power

Diverso invece il discorso TDP che indica il dimensionamento del dissipatore in base alla GPU e quindi al suo consumo dato che tutto il lavoro generato si trasforma in calore.

Dovrebbero essere la stessa cosa, ma dopo anni di "TDP" usato a sproposito non ne sarei così sicuro.
Anche perchè magari non centra, ma TGP sta anche per "Total GPU Power" se proprio vogliamo giocare con le sigle.
 
Dovrebbero essere la stessa cosa, ma dopo anni di "TDP" usato a sproposito non ne sarei così sicuro.
Anche perchè magari non centra, ma TGP sta anche per "Total GPU Power" se proprio vogliamo giocare con le sigle.
Si vero potrebbe anche voler dire Total GPU Power.
--- i due messaggi sono stati uniti ---
AMD si prepara al lancio
AMD-Radeon-RX-6000-anti-scalping-measures-1200x1231.jpg

--- i due messaggi sono stati uniti ---
Cattura.JPG

Io penso che rx6800 però abbia 192 bit di bus, 12GB Vram in 200~220watt TBP per battere facile la 3070 a 450$.
6900 più avanti in caso esca la 3080ti.


Parla di 535mmq di Die, 100 in meno ad Ampere, contando sul fatto che usano i 7nm pareggiare ga102 a 8nm anche se più grande di 100mmq è missione possibile considerando un +10% di clock.
 
Ultima modifica da un moderatore:
https://coreteks.tech/articles/index.php/2020/10/21/making-sense-of-the-rx-6800-and-6800xt/

Infine, mi sono state mostrate le protezioni GPU sia per il 6800 che per il 6800XT (modelli di riferimento AMD) e hanno alcune piccole differenze. Purtroppo non sono in grado di pubblicare le immagini a questo punto, ma guardando le foto posso dirvi che quella che Lisa Su aveva in mano durante l'evento 6000 della scorsa settimana era in realtà il 6800XT. Il 6800 è leggermente diverso sebbene abbia anche un design a tripla ventola. Il 6800 sembra essere a 2 slot mentre il 6800XT sembra essere a 2,5 slota giudicare da come la copertura copre la staffa (a differenza del 6800 che ha la staffa che rotola su di essa), anche se è difficile dire con precisione data l'angolazione delle immagini. La striscia cromata che corre orizzontalmente sulla GPU è diversa sul 6800 ma mi è stato chiesto di non condividere troppi dettagli. Non ho visto il rivestimento 6900XT al momento della scrittura, e sebbene in passato circolasse un design a 2 ventole, non ho visto nessuna GPU basata su di esso a questo punto. È probabile che il design a 2 ventole sia riservato per N22 o N23.
 
Ottimo, non sarebbe male. Però potrebbe anche essere che la 6900XT non venga presentata come la nvidia non ha presentato la 3080Ti ad oggi, ecco perché aveva in mano la 6800XT. Se quest'ultima riuscirà a raggiungere la 3080 a un po' meno prezzo, anche perdendo in RT, ma disponibile per l'acquisto, penso AMD si tenga l'asso 6900xt per una possibile futura risposta nvidia
 
Ottimo, non sarebbe male. Però potrebbe anche essere che la 6900XT non venga presentata come la nvidia non ha presentato la 3080Ti ad oggi, ecco perché aveva in mano la 6800XT. Se quest'ultima riuscirà a raggiungere la 3080 a un po' meno prezzo, anche perdendo in RT, ma disponibile per l'acquisto, penso AMD si tenga l'asso 6900xt per una possibile futura risposta nvidia
No la 6900 XT esce ora, quella che per ora è in parte un mistero è la 6900 XTX che dovrebbe essere esclusiva amd forse sarà più spinta tipo LC

Poi vorrei aggiungere un mio parere:

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Raytracing-interview-1353192/

Riguardo a RT su cyberpunk solo per nvidia per i primi mesi dimostra solo che per fare RT fino ad oggi molto probabilmente non hanno utilizzato le api dx12 e vulkan , parere mio personale nel momento che useranno queste api tutti i giochi per ora usciti con questa tecnologia dovranno essere ritestati e allora si vedrà veramente a che livello è RT su ampere.
 
Meglio ancora allora. Vedremo tra una settimana! Mi fa ben sperare per le GPU e le CPU il fatto che AMD abbia rilasciato delle linee guida per i rivenditori per evitare scalper e bot. Suppongo cercheranno di farle rispettare anche per le GPU reference in caso
 
https://coreteks.tech/articles/index.php/2020/10/21/making-sense-of-the-rx-6800-and-6800xt/

Infine, mi sono state mostrate le protezioni GPU sia per il 6800 che per il 6800XT (modelli di riferimento AMD) e hanno alcune piccole differenze. Purtroppo non sono in grado di pubblicare le immagini a questo punto, ma guardando le foto posso dirvi che quella che Lisa Su aveva in mano durante l'evento 6000 della scorsa settimana era in realtà il 6800XT. Il 6800 è leggermente diverso sebbene abbia anche un design a tripla ventola. Il 6800 sembra essere a 2 slot mentre il 6800XT sembra essere a 2,5 slot a giudicare da come la copertura copre la staffa (a differenza del 6800 che ha la staffa che rotola su di essa), anche se è difficile dire con precisione data l'angolazione delle immagini. La striscia cromata che corre orizzontalmente sulla GPU è diversa sul 6800 ma mi è stato chiesto di non condividere troppi dettagli. Non ho visto il rivestimento 6900XT al momento della scrittura, e sebbene in passato circolasse un design a 2 ventole, non ho visto nessuna GPU basata su di esso a questo punto. È probabile che il design a 2 ventole sia riservato per N22 o N23.
Come sospettavamo insomma.
Oramai pare chiaro che AMD allinei la nomenclatura alle corrispettive nVidia, la 6800xt dovrebbe eguagliare 3080, la 6800 liscia stare in mezzo tra 3080 e 3070 e 6700xt pareggiare 3070.
La 6900xt circa come 3090, io spero però che non la facciano troppo fuori dal vaso coi consumi allineandosi a nVidia pur di pareggiarli, ma che abbia quella 50ina di watt in meno, poi che i customer facciano pure il cavolo che gli pare, ma le reference non devono essere troppo energivore.

la 6900 liscia dovrebbe uscire in caso uscisse la 3080ti.

sulle 2 ventole per N22 sicuro, per N23 credo blower e ci sta pure tanto scalderanno nulla.
--- i due messaggi sono stati uniti ---
No la 6900 XT esce ora, quella che per ora è in parte un mistero è la 6900 XTX che dovrebbe essere esclusiva amd forse sarà più spinta tipo LC

Poi vorrei aggiungere un mio parere:

https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Raytracing-interview-1353192/

Riguardo a RT su cyberpunk solo per nvidia per i primi mesi dimostra solo che per fare RT fino ad oggi molto probabilmente non hanno utilizzato le api dx12 e vulkan , parere mio personale nel momento che useranno queste api tutti i giochi per ora usciti con questa tecnologia dovranno essere ritestati e allora si vedrà veramente a che livello è RT su ampere.
tristezza che fanno...

sulla XTX dovrebbe essere proprio la 6900XT (vedi immagine sopra), mentre manca la 6900 liscia che potrebbe essere una XTX (80CU) con meno clock o una XT(72CU) con più clock.
 
Ultima modifica da un moderatore:
Riguardo al RT su cyberpunk mi pare avessero detto che è basato su DX12 no? Comunque pure The Witcher era un titolo con ottimizzazioni nvidia, si sa che pagano molto di più per spingere le loro tecnologie e se lo possono pure permettere essendo i market leader
 
Pubblicità
Pubblicità
Indietro
Top