Hear me roar! AMD Radeon 390 and 390X - Fiji Assault -

Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
Si spera che escano custom ben dissipate oltre alle lunghissime Gigabyte e Sapphire triventola, altrimenti buona parte dei case vengono tagliati fuori. Le R9 290\290x biventola hanno tutte problemi, chi più, chi meno, a raffreddare i VRM...
 
vecchi tempi m8? pensare che questa 970 è la mia prima scheda video... ahahah prima console a manetta. comunque mi sa che questa salta, metto via i soldi quest'anno e si passerà alla serie 4xx e la corrispondente nvidia col 4k :D
 
Più che altro si spera che adattino i dissipatori:asd: Per citarne uno direct cuII.. le 290/290x non erano a contatto con tutte le heatpipe
 
Vedo che queste sono le schede video adatte a chi se ne frega dei consumi :asd:
Beh, nulla di male, anzi, magari così vanno di più ed amen.
 
chi ha detto che consumeranno tanto queste schede? Mi sono perso qualche news credo :oogle:
 
Si spera che escano custom ben dissipate oltre alle lunghissime Gigabyte e Sapphire triventola, altrimenti buona parte dei case vengono tagliati fuori. Le R9 290\290x biventola hanno tutte problemi, chi più, chi meno, a raffreddare i VRM...

quoto asus ed xfx erano veramente penose, non mi esprimo su msi perchè sinceramente non ricordo nemmeno se me ne siano passate tra le mani.
vecchi tempi m8? pensare che questa 970 è la mia prima scheda video... ahahah prima console a manetta. comunque mi sa che questa salta, metto via i soldi quest'anno e si passerà alla serie 4xx e la corrispondente nvidia col 4k :D

SI e ci sono stati anche tempi più vecchi con hd 1900pro, 8800gt, 9800gt, gtx 295, hd 3870x2, hd 4870x2 diciamo che le top le ho avute quasi tutte compresa la hd 5970 XD
Più che altro si spera che adattino i dissipatori:asd: Per citarne uno direct cuII.. le 290/290x non erano a contatto con tutte le heatpipe

na roba vergognosa asus, che poi non che andassero meglio sulle gtx 780/780ti gigabyte e asus, ricordo che le giga ghz specialmente all'inizio avevano grossi problemi e la maggior parte dei possessori facevano rma perchè non tenevano manco le frequenze stock, e la asus andavano in throttling termico i vrm perchè scottavano XD

chi ha detto che consumeranno tanto queste schede? Mi sono perso qualche news credo :oogle:

Si parlava di 300watt in un test publicato non molto tempo fa, bisogna vedere però se 300watt erano intesi come consumo massimo o in game, perchè pure la gtx 980 può arrivare sui 300watt di consumo.
Gigabyte GTX 980 G1 Gaming 4 GB Review | techPowerUp
 
Ma che palle 'sta storia dei consumi... fatemi capire, ma voi controllate realmente quanti W sta consumando oppure quanti FPS fate al titolo che vi piace tanto tanto? E ancora, controllate la bolletta ogni fine mese oppure quanto vi costa l'acquisto di un componente?

Ancora, passando da GCN 1.0 a GCN 1.2 si è avuto un calo dei consumi del 20% secco a parità di prestazioni. Basta vedere il rapporto prestazioni consumi delle HD 7900 (GCN 1.0) confrontato con quello della R9 285 (GCN 1.2) e della R9 290 (GCN 1.1) per rendersene conto. Con GCN 1.3 e le RAM HBM la situazione dovrebbe migliorare ulteriormente, come è sempre stato.

Il problema, poi, non è nemmeno quanto consumano ma quanto bene sono fatti i dissipatori. Sapphire con il suo Tri-X ha dimostrato che si possono tenere le R9 290/X al di sotto dei 70°C in full senza portare le ventole oltre il 40%... basta progettare bene i dissipatori invece che appiccicare sulle AMD quelli progettati per le nVidia (Asus docet).

Se poi vogliamo lanciarci in previsioni, io mi preoccuperei più di un'altra cosa che, magari, a qualcuno è sfuggita. AMD con le R9 290X ha dimostrato che, riducendo l'overhead sulla CPU, si aumentano gli FPS diminuendo la variabilità in quanto la GPU lavora sempre al 100% del carico.
Visto che la R9 290X ha un TDP di 290W, nessuno ha nulla da ridire o da preoccuparsi se si registrano assorbimenti nell'ordine di 300W... ma cosa dire di una GTX 980 che, a fronte di un "consumo energetico" di 165W dichiarato da nVidia, fa segnare con le DX11 220W che con le DX12 salgono a 271W? Alla faccia di chi dice che per una GTX 980 basterebbe un PSU da 450W...

AnandTech | The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm
 
Visto che la R9 290X ha un TDP di 290W, nessuno ha nulla da ridire o da preoccuparsi se si registrano assorbimenti nell'ordine di 300W... ma cosa dire di una GTX 980 che, a fronte di un "consumo energetico" di 165W dichiarato da nVidia, fa segnare con le DX11 220W che con le DX12 salgono a 271W? Alla faccia di chi dice che per una GTX 980 basterebbe un PSU da 450W...

AnandTech | The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm

Collo di bottiglia assente e Gpu libera di andare al massimo delle prestazioni.
Infatti accade la medesia storia alla R9 290X.
La GTX sale di 49 Watt in DX12, la R9 di 44 Watt in DX12 e di 64 Watt con Mantle, su un sistema a esacore, sarebbe stato meglio vederlo a quattro core.
 
Ma che palle 'sta storia dei consumi... fatemi capire, ma voi controllate realmente quanti W sta consumando oppure quanti FPS fate al titolo che vi piace tanto tanto? E ancora, controllate la bolletta ogni fine mese oppure quanto vi costa l'acquisto di un componente?

Ancora, passando da GCN 1.0 a GCN 1.2 si è avuto un calo dei consumi del 20% secco a parità di prestazioni. Basta vedere il rapporto prestazioni consumi delle HD 7900 (GCN 1.0) confrontato con quello della R9 285 (GCN 1.2) e della R9 290 (GCN 1.1) per rendersene conto. Con GCN 1.3 e le RAM HBM la situazione dovrebbe migliorare ulteriormente, come è sempre stato.

Il problema, poi, non è nemmeno quanto consumano ma quanto bene sono fatti i dissipatori. Sapphire con il suo Tri-X ha dimostrato che si possono tenere le R9 290/X al di sotto dei 70°C in full senza portare le ventole oltre il 40%... basta progettare bene i dissipatori invece che appiccicare sulle AMD quelli progettati per le nVidia (Asus docet).

Se poi vogliamo lanciarci in previsioni, io mi preoccuperei più di un'altra cosa che, magari, a qualcuno è sfuggita. AMD con le R9 290X ha dimostrato che, riducendo l'overhead sulla CPU, si aumentano gli FPS diminuendo la variabilità in quanto la GPU lavora sempre al 100% del carico.
Visto che la R9 290X ha un TDP di 290W, nessuno ha nulla da ridire o da preoccuparsi se si registrano assorbimenti nell'ordine di 300W... ma cosa dire di una GTX 980 che, a fronte di un "consumo energetico" di 165W dichiarato da nVidia, fa segnare con le DX11 220W che con le DX12 salgono a 271W? Alla faccia di chi dice che per una GTX 980 basterebbe un PSU da 450W...

AnandTech | The DirectX 12 Performance Preview: AMD, NVIDIA, & Star Swarm

Scusami: "Star Swarm System Power Consumption"
Non sono i consumi delle sole schede. Certo, è interessante che la R9 290x e la GTX980 consumino quasi uguale in quello specifico bench, ma essendo appunto un test incentrato molto anche sulla CPU, si può presumere che con la più potente GTX980 la CPU lavori di più e consumi di più (infatti fa più FPS).
E' vero che con una GTX980 reference volendo basterebbe un alimentatore da 450 watt: se poi si prendere un custom pompata e con TDP sbloccato (Gigabyte G1) ci vuole un 550 watt per stare tranquilli.

Il consumo importa poco anche a me, anche se ovviamente preferirei schede che consumino poco, più che altro perchè rilascerebbero meno calore nel case (già la 970 non scherza).
Inoltre, una GPU che consuma poco è tendenzialmente avvantaggiata dal punto di vista termico, sia per la temperatura della GPU stessa, sia per quella dei VRM. Poi con un ottimo dissipatore si tiene fresco anche un chip hawaii da oltre 250 watt e, usando 6-8 mosfet di buona qualità ben dissipati, rimangono freschi anche loro. Però, se noti, tutti i dissipatori che si comportano bene sulle GPU Hawaii, tenendo conto anche dei VRM, sono tutti triventola. Ciò va benissimo in generale, ma malissimo per me, perchè nel mio case non entrano e cambiare anche quello sarebbe fastidioso. :D
Ma tanto probabilmente rimarrò con la fedele 970, che è già più che sufficiente per quello che faccio...
 
Collo di bottiglia assente e Gpu libera di andare al massimo delle prestazioni.
Infatti accade la medesia storia alla R9 290X.
La GTX sale di 49 Watt in DX12, la R9 di 44 Watt in DX12 e di 64 Watt con Mantle, su un sistema a esacore, sarebbe stato meglio vederlo a quattro core.

Occhio che quei consumi sono, IMHO, solo della VGA... del resto, sappiamo tutti che la R9 290X ha un TDP di 290W e in full 300W li ciuccia come confermato da "n" benchmark fatti in questi mesi. Il punto, quindi, è un altro ovvero che la GTX 980, a fronte di un TDP di 165W (nVidia lo definisce "Consumo Energetico" sul sito ufficiale), ne assorbe 270... ovvero, con le DX12 il risparmio energetico di Maxwell sembrerebbe andare a farsi benedire.


@pribolo vale anche per te ;) La R9 290X in full load ha sempre fatto riscontrare da sola a 300W... e in quel bench le VGA sono per l'appunto in full load... Mi sembra assurdo che rilevino 300W sul sistema con una VGA che sotto stress test fa segnare anche 350W.
 
Ultima modifica:
Le voci, da questo punto di vista, non sono molto rassicuranti purtroppo. Ci si aspetta TDP e consumi alti, a livello grossomodo dell'attuale R9 290x per la top di gamma.

Intanto seguo anche io. Sia mai che a seguito di un improbabile reso della 970, trovi posto nel mio case una R9 390. :sisi:

Si certo, tutto giusto... Si dice anche però che ci sia un salto prestazionale di +50% rispetto alla 290x, quindi performance/consumi la 290x viene battuta alla grande. Poi resta da vedere l'autenticità dei bench postati sia per quanto riguarda le prestazioni sia per quanto riguarda i consumi...

A proposito del gm200 sembra che gli FP64 vengano castrati...
Nvidia's GM200 is Down on FP64 Performance
 
Si certo, tutto giusto... Si dice anche però che ci sia un salto prestazionale di +50% rispetto alla 290x, quindi performance/consumi la 290x viene battuta alla grande. Poi resta da vedere l'autenticità dei bench postati sia per quanto riguarda le prestazioni sia per quanto riguarda i consumi...

A proposito del gm200 sembra che gli FP64 vengano castrati...
Nvidia's GM200 is Down on FP64 Performance
Il distacco prestazionale fra le due è indubbio e la GTX 980 rimane più efficiente in gaming. Infatti, sarebbe stato più interessante vedere i consumi della GTX 970 in quello specifico test.

Detto questo, non va dimenticato che la R9 290X ha capacità di calcolo FP64 che pesano sul consumo totale anche se non influiscono sulle prestazioni nei giochi perché i relativi core sono cmq attivi. Se AMD dovesse fare come nVidia e portare il rapporto FP32/FP64 da 1/8 a 1/32, cosa che non mi auguro, i consumi in gaming scenderebbero sensibilmente.
 
Occhio che quei consumi sono, IMHO, solo della VGA... del resto, sappiamo tutti che la R9 290X ha un TDP di 290W e in full 300W li ciuccia come confermato da "n" benchmark fatti in questi mesi. Il punto, quindi, è un altro ovvero che la GTX 980, a fronte di un TDP di 165W (nVidia lo definisce "Consumo Energetico" sul sito ufficiale), ne assorbe 270... ovvero, con le DX12 il risparmio energetico di Maxwell sembrerebbe andare a farsi benedire.


@pribolo vale anche per te ;) La R9 290X in full load ha sempre fatto riscontrare da sola a 300W... e in quel bench le VGA sono per l'appunto in full load... Mi sembra assurdo che rilevino 300W sul sistema con una VGA che sotto stress test fa segnare anche 350W.

La GTX980 reference non può consumare 270 watt: il TDP è fissato a 165 watt e questo valore rappresenta anche il power limit della scheda. Ora, c'è una certa tolleranza, ma comunque oltre i 180-190 watt d'assorbimento la scheda va in throttling termico per rispettare il power limit. Consumi sensibilmente superiori, nell'ordine dei 250-300 watt, sono plausibili sono se:
1) Si tratta di picchi nell'ordine di millisecondi
2) Viene testata una custom con Power Limit sensibilmente più alto rispetto alla scheda stock, tipo la Gigabyte G1

Sono abbastanza sicuro di ciò che dico, perchè la mia GTX970 si comporta così: in OC se sforo il Power Limit (220 watt al massimo) va in throttling termico. Insomma, non è vero che la scheda consuma 165 watt al massimo, ma in ogni caso, se si parla di reference, questo dato è vicino al vero.

Detto questo, credo che quel test si riferisca proprio all'intero sistema: quel bench è molto orientato sulla CPU e sulle Draw Call, la GPU non arriva a esprimersi proprio al 100% magari...
 
Ciao a tutti.
Ho seguito parte di questa discussione con estremo interesse (mica tutta però, troppe pagine :hihi:), visto che fra (minimo) un annetto pensavo di farmi il PC nuovo, e sarei propenso a farmi qualcosa di pronto per i 4k.

Vorrei porvi un quesito, e mi scuso se ne avevate già discusso in precedenza:
visto che era uscita un'indiscrezione dagli ingegneri AMD sulla condivisione della VRAM sulle top gamma dual-GPU, credete che già dalla R9 300 potrebbero adottare tale approccio?
Nella news uscita qualche giorno fa pare che l'ammiraglia avrà ancora 2 blocchi di memoria separati ma, visto che si parla di Q4 2015, potrebbero esserci sorprese.
 
Occhio che quei consumi sono, IMHO, solo della VGA... del resto, sappiamo tutti che la R9 290X ha un TDP di 290W e in full 300W li ciuccia come confermato da "n" benchmark fatti in questi mesi. Il punto, quindi, è un altro ovvero che la GTX 980, a fronte di un TDP di 165W (nVidia lo definisce "Consumo Energetico" sul sito ufficiale), ne assorbe 270... ovvero, con le DX12 il risparmio energetico di Maxwell sembrerebbe andare a farsi benedire.


@pribolo vale anche per te ;) La R9 290X in full load ha sempre fatto riscontrare da sola a 300W... e in quel bench le VGA sono per l'appunto in full load... Mi sembra assurdo che rilevino 300W sul sistema con una VGA che sotto stress test fa segnare anche 350W.

I numeri non tornano, se hanno usato una scheda reference per esempio oltre i 225 Watt non può consumare, fatto sta che non sono menzionati quali modelli hanno usato, a parer mio si lascia intendere reference.

- - - Updated - - -

Ciao a tutti.
Ho seguito parte di questa discussione con estremo interesse (mica tutta però, troppe pagine :hihi:), visto che fra (minimo) un annetto pensavo di farmi il PC nuovo, e sarei propenso a farmi qualcosa di pronto per i 4k.

Vorrei porvi un quesito, e mi scuso se ne avevate già discusso in precedenza:
visto che era uscita un'indiscrezione dagli ingegneri AMD sulla condivisione della VRAM sulle top gamma dual-GPU, credete che già dalla R9 300 potrebbero adottare tale approccio?
Nella news uscita qualche giorno fa pare che l'ammiraglia avrà ancora 2 blocchi di memoria separati ma, visto che si parla di Q4 2015, potrebbero esserci sorprese.

Penso di si ma da qua al Q4 2015 potremmo avere dettagli maggiori in futuro.
 
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top