N3RO_RE
Utente Èlite
- Messaggi
- 3,624
- Reazioni
- 869
- Punteggio
- 75
Qualche info in più...
Overclock3D :: Article :: AMD R9 390X WCE, an 8GB GPU with 4096 shaders! :: RUMOUR
Direi che la cosa più interesante è questa, cosa cmq detta diverse volte... Anche perchè la 390x con l'AIO è chiamata 390x WCE (water cooled edition), implica quindi la presenza di 390x ad aria :sisi:
"This slide does state that there will be a Water Cooled edition of the R9 390X, which suggests that the stock cooler for the GPU will be a Air based cooler, with this higher end GPU being a special water cooled version. Hopefully this does not mean that an air cooled version of this GPU will be thermally throttled or limited."
Suona non bene ma benissimo! siamo attorno ai -60 giorni circa al lancio!
Per il resto le soluzioni ad aria per dissipazioni di grande livello ci sono e quindi non credo che si avranno da questo lato grossi problemi.
Beh se così fosse sarebbe fantastico: visto che ho già un sistema a liquido custom sul pc, adatto a tenere cpu + 1 vga e contando che puntavo a fare xfire, invece di sbattermi ad ampliare il sistema compro una 390X reference + WB ed una 390X WCE ed ho risolto i miei problemi :asd:
In ogni caso, chiedendo in giro ho sentito che in 4k capita di sforare (anche se saltuariamente) i 6Gb di Vram, cosa che imho renderebbe queste schede con 8Gb di vram più indicate per questa risoluzione che non le imminenti 980Ti con i loro 6Gb (che in ogni caso sto attendendo con interesse per un confronto prima di aprire il portafogli) :D
Sul fatto dello sforamento è più che normale(là dove avviene), ovvero ad oggi i giochi non sono studiati per essere nativi o orientati ai 4K e quindi a questa risoluzione il carico è ancora esoso, ergo ottimizzazione e vanga e martello.
Tutto secondo me cambierà molto con l'arrivo delle nuove generazioni di schede e anche con le nuove DX12 e Vulkan e con la sempre più presenza di monitor da gaming 4K sul mercato, dando un apposito e specifico impulso a tutto.
Quando feci i test tempo fà simulando i vari scenari a 1440p con il DSR e poi testandoli ora realmente mi sono accorto che il DSR caricava più del reale la GPU, quindi magari se gli sforamenti avvengono usando questa metodologia(simulare la risoluzione) non c'è da proccuparsi.