UFFICIALE AMD Big NAVI RDNA2

Pubblicità
4k devi prenderlo con il DSC e a 144hz

So che vanno molto i monitor ad alto refresh e ho presente i vantaggi, ma ho sempre usato i 60 e possono continuare ancora per un po': preferisco salire di risoluzione, anche per avere più spazio a schermo. Anche perchè ripeto, per quanto ci gioco io va benissimo: non sono tipo da FPS o giochi frenetici in cui effettivamente i 144Hz danno grossi vantaggi (probabilmente il "gioco" che userò di più sarà Flight Simulator 2020)
Se avessi soldi illimitati chiaramente prenderei un 4k 144Hz, ma non è questo il caso ?
 
e che oggi rimanere sui 60 hz è un pochino uno svantaggio sotto molti punti di vista l'LG 27GL950 non dovrebbe costare tantissimo, so che è preferibile un 32 pollici su un 4k ma questo è bel pannello con DSC e 144hz che si dovrebbe trovare sotto gli 800
 
Ultima modifica:
e che oggi rimanere sui 60 hz è un pochino uno svantaggio sotto molti punti di vista l'LG 27GL950 non dovrebbe costare tantissimo, so che è preferibile un 32 pollici su un 4k ma questo è bel pannello con DSC e 144hz che si dovrebbe trovare sotto gli 800


Oddio, trovare sotto gli 800 è un parolone.
Comunque ti ringrazio, ma credo sia fuori budget per me.
 
Beh comunque il doppio (forse anche più, dipende che offerte trovo) rispetto a quanto pago un 60Hz. Non proprio una differenza trascurabile
 
La xbox serie x con 52 delle 82CU del chippone RDNA2 a 1.8ghz consuma 210w di picco alla presa. Ovviamente il consumo è complessivo e non riguarda la sola gpu.


VOgliamo considerare un consumo nell' ordine dei 250w per la gpu top di gamma alla medesima frequenza?
 
La xbox serie x con 52 delle 82CU del chippone RDNA2 a 1.8ghz consuma 210w di picco alla presa. Ovviamente il consumo è complessivo e non riguarda la sola gpu.


VOgliamo considerare un consumo nell' ordine dei 250w per la gpu top di gamma alla medesima frequenza?
Non riesco ad ascoltare, ma ho visto qualche frame, vedo 210 alla presa tutto, poi un confronto diretto di gioco sui 160 e 180watt tra le due console e poi una tabella con questi valori:
1603177071747.png
1603176986090.png
ma è la GPU o tutta la console questi, non ho capito?

Efficienza mostruosa comunque, la GPU della serie X è Navi21 lite, quindi il progetto si basa su Navi21 alleggerito per i costi consumi e calore da console anche dai clock "bassi" per rdna2 ma medi della 5700xt a 220watt, incredibile, mentre PS5 è basata su N22 direttamente.

Navi 10 220watt 1850mhz (5700xt) 40CU
Navi 21 lite 160watt 1850mhz (XBX X) 52CU

Wow.
 
Ultima modifica da un moderatore:
Non riesco ad ascoltare, ma ho visto qualche frame, vedo 235 alla presa tutto, poi un confronto diretto di gioco sui 160 e 180watt tra le due console e poi una tabella con questi valori:
Visualizza allegato 388699
Visualizza allegato 388698
ma è la GPU o tutta la console questi, non ho capito?

Efficienza mostruosa comunque, la GPU della serie X è Navi21 lite, quindi il progetto si basa su Navi21 alleggerito per i costi consumi e calore da console anche dai clock "bassi" per rdna2 ma medi della 5700xt a 220watt, incredibile, mentre PS5 è basata su N22 direttamente.

Navi 10 220watt 1850mhz (5700xt) 40CU
Navi 21 lite 160watt 1850mhz (XBX X) 52CU

Wow.

E' il consumo di tutto il sistema: non c'è modo di isolare il consumo della componente GPU e nemmeno dell'intera APU, essendo saldata.
Si sono limitati a testare il consumo alla presa con un wattmetro, quindi comprende tutto: CPU, GPU, memorie, SSD, perdite del sistema di alimentazione.

I valori in tabella si riferiscono a giochi che girano in compatibility mode, quindi senza sfruttare appieno l'hardware: con Gears 5 che sfrutta di più la potenza del sistema si vedono 200-210 watt (sempre alla presa).

Difficile dire quanti di questi siano responsabilità della CPU: direi di togliere almeno il 10% come perdite di alimentazione, un 40-50 watt per le RAM (16GB GDDR6 sono una bella botta), un 40-50 watt per la CPU: alla fine per la GPU rimangono circa 100 watt, da una stima molto alla buona.

Sì, il fatto è che quelle sono 52CU a 1.8GHz: per Big Navi si parla di 80 (e anche altre specifiche della GPU più alte) a 2.3-2.4GHz. Insomma, può consumare anche più del doppio (poi mettici memorie e perdite ai VRM). Alla fine i rumors l'hanno sempre data tra i 250-300 watt: il range sarà quello.
 
E' il consumo di tutto il sistema: non c'è modo di isolare il consumo della componente GPU e nemmeno dell'intera APU, essendo saldata.
Si sono limitati a testare il consumo alla presa con un wattmetro, quindi comprende tutto: CPU, GPU, memorie, SSD, perdite del sistema di alimentazione.

I valori in tabella si riferiscono a giochi che girano in compatibility mode, quindi senza sfruttare appieno l'hardware: con Gears 5 che sfrutta di più la potenza del sistema si vedono 200-210 watt (sempre alla presa).

Difficile dire quanti di questi siano responsabilità della CPU: direi di togliere almeno il 10% come perdite di alimentazione, un 40-50 watt per le RAM (16GB GDDR6 sono una bella botta), un 40-50 watt per la CPU: alla fine per la GPU rimangono circa 100 watt, da una stima molto alla buona.

Sì, il fatto è che quelle sono 52CU a 1.8GHz: per Big Navi si parla di 80 (e anche altre specifiche della GPU più alte) a 2.3-2.4GHz. Insomma, può consumare anche più del doppio (poi mettici memorie e perdite ai VRM). Alla fine i rumors l'hanno sempre data tra i 250-300 watt: il range sarà quello.
Impressionante fosse solo 100watt la GPU, praticamente su desktop potremmo avere davvero una simil 3070/2080ti a 150watt massimo compreso di memorie.

Incredibile.
--- i due messaggi sono stati uniti ---

intanto Igor è entrato in modalità "damage control" e spara consumi uguali a Ampere ? ? ?

PS. avevo visto male, 210watt di picco, 235 era la tensione, questo in Gears 5 4k, incredibile.
1603187721841.png
 
Ultima modifica da un moderatore:
Penso che la sola gpu sia più vicina ai 150 che ai 100w. Un 3700x a 3.5ghz consuma 40-45w, la metà del suo consumo stock: in gaming la cpu non è sfruttata al 100% quindi non credo che contribuisca con più di 30w all' assorbimento totale.
I 16gb di gddr6 ci sono sulla console come sulla top di gamma RDNA2 quindi restano.

La perdita in efficienza dell' ali non si può valutare, ho visto la foto del Liteon che la alimenta ma non c'è il bollino 80+; idem per assorbimento di mobo,lettore BD e disco.

SI aprono 2 scenari:
- quello descritto da Igor, RDNA 2 estremamente competitiva: non si fanno calcoli, si spinge il clock al massimo a costo di aumentare l' assorbimento del 50% rispetto al punto di massima efficienza;
- non compete, le anticipazioni riguardano già la top di gamma (così come per la slide 8k di nvidia, ai risultati forniti va tolto un 10%), ed offri un prodotto meno prestante (3080 -15%) ma più efficiente (250w).
 
Igor prevede: "Cards, such as a Sapphire Nitro or Asus Strix (which in turn should only be able to withstand MLCC), are expected to be delivered in smaller, technically feasible quantities as early as mid-November, while other manufacturers will (have to) allow themselves time until the end of November."
 
E'una buiona notizia che arrivano a Novembre ma non vedo come possa saperlo, speriamo
 
Penso che la sola gpu sia più vicina ai 150 che ai 100w. Un 3700x a 3.5ghz consuma 40-45w, la metà del suo consumo stock: in gaming la cpu non è sfruttata al 100% quindi non credo che contribuisca con più di 30w all' assorbimento totale.
I 16gb di gddr6 ci sono sulla console come sulla top di gamma RDNA2 quindi restano.

La perdita in efficienza dell' ali non si può valutare, ho visto la foto del Liteon che la alimenta ma non c'è il bollino 80+; idem per assorbimento di mobo,lettore BD e disco.

SI aprono 2 scenari:
- quello descritto da Igor, RDNA 2 estremamente competitiva: non si fanno calcoli, si spinge il clock al massimo a costo di aumentare l' assorbimento del 50% rispetto al punto di massima efficienza;
- non compete, le anticipazioni riguardano già la top di gamma (così come per la slide 8k di nvidia, ai risultati forniti va tolto un 10%), ed offri un prodotto meno prestante (3080 -15%) ma più efficiente (250w).
Igor sta sparando a mille perchè è un fanboy nVidia ed è entrato in Damage Control ?
Anche Rogame gli ha detto che sta sballando tutti i valori, senza contare che cita 24GB per la 3080, ma de che... valori a caso, inoltre AMD da anni e anni dichiara il consumo totale TGP o TBP della scheda e non il TDP della sola GPU.
--- i due messaggi sono stati uniti ---
E'una buiona notizia che arrivano a Novembre ma non vedo come possa saperlo, speriamo
Igor ultimamente è a caccia di click...
 
Pubblicità
Pubblicità
Indietro
Top