UFFICIALE Fury x-fury-fury nano, fiji il godzilla delle gpu

Pubblicità
infatti han detto che se sarà lanciata ad aprile molto probabilmente monterà le gddr5x e non le hbm2, sempre se quest'ultime non saranno pronte, anche perchè una differenza tangibile tra HBM1 e gddr5 non si è vista, vuoi per mancanza di SW adeguato per sfruttarle, vuoi per mancanza di ottimizzazioni adeguate, ma tra hbm e gddr5 non c'è stata una differenza tale da giustificare l'impiego nella vga da gaming. Magari nvidia ha pensato che pure con la prox generazioni le HBM non verranno sfruttate appieno, ecco quindi l'impiego delle gddr5x al posto delle hbm2
Cmq stando ai vari lanci delle titan, aprile potrebbe essere il mese giusto. La titan e titan black sono state lanciate in febbraio, la titan-z in marzo e la titan-x a fine marzo.
è vero, le gddr5x come performance con un bus a 384 bit offrirebbero quasi una banda di 700gb/s, un balzo enorme rispetto ad oggi, però è anche vero che le gddr5x si porteranno dietro i difetti delle gddr5, cioè consumi più alti e dimensioni meno contenute rispetto alle hbm2, che seppur hanno il loro costo, sono più prestanti e occupano meno spazio, quindi una soluzione più elegante e di fascia alta rispetto alle gddr5x.
 
è vero, le gddr5x come performance con un bus a 384 bit offrirebbero quasi una banda di 700gb/s, un balzo enorme rispetto ad oggi, però è anche vero che le gddr5x si porteranno dietro i difetti delle gddr5, cioè consumi più alti e dimensioni meno contenute rispetto alle hbm2, che seppur hanno il loro costo, sono più prestanti e occupano meno spazio, quindi una soluzione più elegante e di fascia alta rispetto alle gddr5x.

I consumi vengono contenuti lo stesso, visto che il nuovo processo produttivo a 14/16nm porta a consumare meno. Poi non credo che sia la vram ad alzare i consumi dell'intera scheda, basti pensare alla fury-x... Consuma di più di una 980ti, come performance siamo li (stock vs stock) eppure adotta le HBM.
Con le dimensioni siamo d'accordo e anche no... O si fanno delle schede tipo la r9 nano, oppure nonostante l'impiego delle HBM si sono visto r9 fury dissipate ad aria lunghe 30cm, con 2.5/3 slot di spessore, quindi le dimensioni sono uguali.
 
I consumi vengono contenuti lo stesso, visto che il nuovo processo produttivo a 14/16nm porta a consumare meno. Poi non credo che sia la vram ad alzare i consumi dell'intera scheda, basti pensare alla fury-x... Consuma di più di una 980ti, come performance siamo li (stock vs stock) eppure adotta le HBM.
Con le dimensioni siamo d'accordo e anche no... O si fanno delle schede tipo la r9 nano, oppure nonostante l'impiego delle HBM si sono visto r9 fury dissipate ad aria lunghe 30cm, con 2.5/3 slot di spessore, quindi le dimensioni sono uguali.
GP100 non è un peso piuma, tutti i chipponi hanno un tdp sui 250w, e avere delle memorie che invece di consumare 35/40 w ne consumano 15, sarebbe una cosa gradita.

Si ma li è questione di architettura per il rapporto performance/consumi, inoltre il pcb diventa lungo se customizzato, ma reference è molto corto, sia sulla nano che sulla x.

Inutile girarci attorno, posso capire i problemi delle hbm1 sui costi e sul limite della capacità, posso capire anche che le gddr5x sono un buon passo avanti rispetto alle gddr5, ma sul chippone ci devi mettere il meglio che offre il mercato, potevo capire se era gp104, non gp100.
 
GP100 non è un peso piuma, tutti i chipponi hanno un tdp sui 250w, e avere delle memorie che invece di consumare 35/40 w ne consumano 15, sarebbe una cosa gradita.

Si ma li è questione di architettura per il rapporto performance/consumi, inoltre il pcb diventa lungo se customizzato, ma reference è molto corto, sia sulla nano che sulla x.

Inutile girarci attorno, posso capire i problemi delle hbm1 sui costi e sul limite della capacità, posso capire anche che le gddr5x sono un buon passo avanti rispetto alle gddr5, ma sul chippone ci devi mettere il meglio che offre il mercato, potevo capire se era gp104, non gp100.

Appunto è l'architettura che va a determinare i consumi. Siccome nvidia ha il rapporto consumi/prestazioni in suo favore, può anche permettersi di non optare per le HBM e lanciare la scheda con le ggdr5x. AMD non avendo dalla sua l'efficienza (se non con la nano, ovviamente stando alle schede uscite ad oggi) andando ad usare le gddr5x significa andare a mettere un 20/25w di consumi in più, ed ecco che la gente mugugna per i consumi "elevati"
Infatti io stavo parlando delle fury liscia... Nonostante l'uso del pcb reference, si sono viste schede lunghe 30cm con un 2.5slot di spessore (vedasi trix e xfx). Con pcb custom ovviamente è stato allungato (vedasi strix e nitro, quest'ultima è leggermente più lungo di quelle reference). Ora se le schede non le vai a liquidare hai cmq una scheda da 30cm e 2.5slot nonostante tu abbia un pcb corto.
Poi che sia più elegante e rispettoso usare le HBM2 sul chippone è un altro paio di maniche...
 
Appunto è l'architettura che va a determinare i consumi. Siccome nvidia ha il rapporto consumi/prestazioni in suo favore, può anche permettersi di non optare per le HBM e lanciare la scheda con le ggdr5x. AMD non avendo dalla sua l'efficienza (se non con la nano, ovviamente stando alle schede uscite ad oggi) andando ad usare le gddr5x significa andare a mettere un 20/25w di consumi in più, ed ecco che la gente mugugna per i consumi "elevati"
Infatti io stavo parlando delle fury liscia... Nonostante l'uso del pcb reference, si sono viste schede lunghe 30cm con un 2.5slot di spessore (vedasi trix e xfx). Con pcb custom ovviamente è stato allungato (vedasi strix e nitro, quest'ultima è leggermente più lungo di quelle reference). Ora se le schede non le vai a liquidare hai cmq una scheda da 30cm e 2.5slot nonostante tu abbia un pcb corto.
Poi che sia più elegante e rispettoso usare le HBM2 sul chippone è un altro paio di maniche...
Il punto è che le gddr5x non sono migliori delle hbm2, e siccome le hbm2 non si portano dietro i difetti delle hbm1(come la scarsità della produzione, e la limitazione della capacità), è giusto che le hbm 2 siano montate sul chippone, anche se in fatto di performance pure non necessiterebbe troppo in game.

Il tipo di dissipatore è anche collegato alle necessità su cui si indirizza la scheda, se voglio una scheda mini itx posso farla senza problemi( a differenza di gm200), mentre se voglio dare una gpu liquidata con un pcb più corto occupo meno spazio anche in lunghezza, che non sarebbe poi così male visto che in certi case fa un po' di disagio avere ciabatte da 30 e passa centimetri(ho una 770 windforce, la sua lunghezza non è poi così indifferente quando si apre il case per fare qualche lavoretto, oltre alla pesantezza).
 
Ragazzi ho dei problemi con i driver della fury x

in particolare con crismon 15.12 o 16.1 hotfix.

Da quando ho montato la scheda video e installato i driver il computer non si spegne più, windows si arresta e tutto rimane acceso.

Ho provato con diversi metodi visti on-line infine ho disinstallato tutti i driver e reinstallati uno per volta e il problema si è presentato con crismon.

L'unico modo che ho trovato per poter spegnere in maniera completa il pc è scrivere nella linea di comando
shutdown /s.

Qualcuno ha lo stesso problema o lo ha risolto????????
 
Ragazzi ho dei problemi con i driver della fury x

in particolare con crismon 15.12 o 16.1 hotfix.

Da quando ho montato la scheda video e installato i driver il computer non si spegne più, windows si arresta e tutto rimane acceso.

Ho provato con diversi metodi visti on-line infine ho disinstallato tutti i driver e reinstallati uno per volta e il problema si è presentato con crismon.

L'unico modo che ho trovato per poter spegnere in maniera completa il pc è scrivere nella linea di comando
shutdown /s.

Qualcuno ha lo stesso problema o lo ha risolto????????
Io non l'ho mai sentito questo problema. Che OS hai?
 
Scusate se non sono stato specifico,

ho win10,
Questo problema ne ho visto che ne parlavano anche sul forum AMD.
Ci sono diverse cause per ciò che mi accade,
dalle sospensione come ibernazione, ad dei problemi con Intel device manger, il programma Corsair-link o problemi di conflitto tra Driver.
Per fare debbuggin ho formattato win10 e analizzato i driver 1 a 1, disistallando quelli che non analizzavo.
Il colpevole è proprio Crismon 15.12 o 16.1 per quanto mi riguarda.

La cosa divertente che a SO spento i led della fury indicano che la scheda sta a massimo sforzo, anche se per ora è collegata tramite HDMi perchè non è ancora arrivato lo schermo nuovo con display port.

Comque sembra essere un prolblema comune in Win 10 ma le cause variano da pc a pc. Ho visto molti problemi simili dell HP pavillion ed era causata dall'Intel managment device che ha problemi per versioni 11.xx.xx o 10.xx.xx .

Ora la soluzione con spegnimento da linea di comando è funzionale e mi va bene se mi serve per godermi la mia fury x, però vorrei sistemare tutto.

la buid il completo
cpu: i7 6700k
gpu: r9 fury x
ram: 32 gb ddr4 @ 2800 Mhz Corsair venegance
Memoria: 2x samsumg 850 pro e due hdd da 2 Tb ciascuno
Mobo: Asusu maximus hero VIII
alimentatore: corsair cm850
dissipatore: Corsair h100i gtx
 
Una volta mi é successa una cosa simile, allora ho staccato il cavo dell'ali e lasciato lì per qualche minuto e quando ho riattaccato e riacceso non lo ha più fatto.
 
Installati e provati con tomb raider tutto ok nulla da segnalare,non mi sembra ci sia stato incremento di prestazioni rispetto ai precedenti e se c'è sarà nell'ordine di 1/2fps.
 
290x che và di piú della 295x2 che vergogna driver amd.

Non per dire, ma sembra una trollata inutile. :patpat:
Quando questo accade vuol solo dire che non è stato attivato il profilo per il Crossfire, che per la cronaca è stato reso disponibile per Rise of the Tomb Rider (si presuppone che tu stia parlando di questo gioco per non avere aggiunto ulteriori dettagli) con i driver 16.1.1 Hotfix. Se hai visto benchmark con driver più vecchi è perfettamente normale che una 295X2 sia più lenta di una 290X perché tende a tenere frequenze leggermente inferiori rispetto a quest'ultima.

Hai appena scoperto perché le soluzioni a scheda singola sono più consigliate rispetto a Crossfire e SLI, anche Nvidia ha avuto problemi con lo SLI su Rise of the Tomb Raider.

EDIT: Probabilmente ha ragione Molys e ti riferivi a The Division, ma il risultato non cambia.
 
Ultima modifica:
290x che và di piú della 295x2 che vergogna driver amd.
che NON ci siano problemi in alcun caso con i crossfire credo e spero su questo forum non venga mai detto... ma una frase del genere guardando un grafico della beta di the division per di più senza che sia stato rilasciato alcun driver apposito è un pelino esagerata, non trovi?
uno che non sa niente e capita su questa pagina legge la tua frase, guarda i numerini nel grafico e l'unica cosa che si ricorderà è "sì i driver amd fanno schifo".. lo trovo sbagliato e falso.
 
Pubblicità
Pubblicità
Indietro
Top