UFFICIALE GTX 1080-1070: il debutto di Pascal

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
Bhe quei 2160 mi fanno ben sperare per Custom come non si sono mai viste.
970 G1 da sola faceva 1400 Mhz, con limite a 1500 mhz, proporzionalmente se mantengono gli stessi margini spingono un po' sopra i 2.3 Ghz...
 
Beh, su videocardz.com c'è la Galax custom, che è orribile. Non so se avete già postato la notizia qualche pagina dietro, non ho voglia di leggere tutto ancora :asd: ...
Tra l'altro dalla news si evince dall'immagine in cui compare il board number che hanno usato le immagini di una 1070 e non di una 1080 :asd: ...
 
Bhe quei 2160 mi fanno ben sperare per Custom come non si sono mai viste.
970 G1 da sola faceva 1400 Mhz, con limite a 1500 mhz, proporzionalmente se mantengono gli stessi margini spingono un po' sopra i 2.3 Ghz...

Proprio per questo penso proprio di prendere giga. Sono sempre state una bomba in OC.

- - - Updated - - -

Beh, su videocardz.com c'è la Galax custom, che è orribile. Non so se avete già postato la notizia qualche pagina dietro, non ho voglia di leggere tutto ancora :asd: ...
Tra l'altro dalla news si evince dall'immagine in cui compare il board number che hanno usato le immagini di una 1070 e non di una 1080 :asd: ...

Sisi già postata la notizia. E' da galera un dissi del genere... :vv:
 
Io non gabire. Perchè i partner vendono le sfounders edition? Non le ha lanciate nvidia col senso preciso di vendere il "suo brand" e non rompere le bolas nel paniere ai partner? :retard:
 
Bhe quei 2160 mi fanno ben sperare per Custom come non si sono mai viste.
970 G1 da sola faceva 1400 Mhz, con limite a 1500 mhz, proporzionalmente se mantengono gli stessi margini spingono un po' sopra i 2.3 Ghz...

Limite a 1500??
Dilllo alla mia ex msi 970.. ha bucato i 1620 mhz :lol: in oc
O alla g1 di gameshard e di altri..

In daily use a 1580/8500 una favola quella scheda

Poi si, il limite medio tirate in oc si aggirava sui 1530 circa
 
Ultima modifica da un moderatore:
L'officina 2.0 verrà modernizzata questa volta..

In prima pagina (sotto spoiler) verranno annotate tutte le frequenze massime raggiunte in oc di tutti i possessori..

Cosi a fine anno si può fare un bilancio sulle frequenze medie..



Inviato dal mio SM-G920F utilizzando Tapatalk
 
Pascal Secrets: What Makes Nvidia GeForce GTX 1080 Fast?

Udite...udite, connettori 2x8 e 3x8 (custom estreme) pee gtx 1080.

Oc a pompa, altro che essere limitati dai 225w della founders..

Mi aspetto clock esagerati..
Spettacolo, link da stickare in prima!

Soprattutto la parte relativa alle gddrx. Non sapevo avessero 4 cicli per clock invece che 2 della gddr non "x". In effetti gddr significa Graphic DOUBLE data rate...... mentre le gddrx dovrebbero essere Graphic QUAD. Questo significa che hanno un base clock bassissimo (2.5Ghz) ma che in oc spingono di brutto e che ogni hz dato in oc a una gddx vale come 2 su una gddr normale. E si parla di quelle a 20nm mentre se non ho capito male devono ancora arrivare quelle a 10nm che saranno davvero feroci.

Per la cronaca
Manufactured in 20nm process, GDDR5X memory showed being overclocking-friendly even with the initial silicon. As the roadmap shows, the target was to hit the 10 Gpbs i.e. 2.5 GHz QDR. Given that the memory actually moves four times per cycle, it should be called Quad Data Rate, but the name GDDR SGRAM (Graphics Double Data Rate Synchronous Graphics Random Access Memory) was kept for continuity.GeForce GTX 1080 has the memory clocked at 2.5 GHz but we do expect some of the samples clocking at 2.75-3.5 GHz (11-14 Gbps). That would raise the available bandwidth from 320GB/s to 352-448 GB/s and we do expect to see extreme overclockers pushing the memory even more. If Micron adopts 10nm process for GDDR5X, we’ll get to 4 GHz clock / 16 Gbps rather sooner than later.


emot-golfclap.gif
 
Spettacolo, link da stickare in prima!

Soprattutto la parte relativa alle gddrx. Non sapevo avessero 4 cicli per clock invece che 2 della gddr non "x". In effetti gddr significa Graphic DOUBLE data rate...... mentre le gddrx dovrebbero essere Graphic QUAD. Questo significa che hanno un base clock bassissimo (2.5Ghz) ma che in oc spingono di brutto e che ogni hz dato in oc a una gddx vale come 2 su una gddr normale. E si parla di quelle a 20nm mentre se non ho capito male devono ancora arrivare quelle a 10nm che saranno davvero feroci.

Per la cronaca


emot-golfclap.gif
[/FONT][/COLOR]
Il clock reale per le 10gbps è di 1250 mhz.. caricate a 1500 prendono i 12gbps

Inviato dal mio SM-G920F utilizzando Tapatalk
 
Vabe me ne vado a pranzo. Ho girato tutti i siti che conosco e nessuna novità sulle custom. Ormai mi è venuta la malattia xD​
 
Qui si parla di performance per clock che non dico eliminano ma riducono di molto l'importanza del'ampiezza del bus. Poi chiaro che hbm ha un'arch completamente diversa e sarà tutta da verificare ma con delle freq del genere e un pp ridotto a 10nm penso che il divario in performance reali (da gaming) potrebbe essere minore di quello che ci si aspetti ora.

Probabile anche che amd lanci Vega a ottobre con gddrx (magari 10nm e/o magari super-clocckate) invece che con hbm, anche perchè polaris non ha gddrx. Resta una flebile speranza per le hbm entro fine anno ma da un lato mi fa strano che amd salti da polaris "nata vecchia" con le gddr (anche se magari a 200$ sarà il bestbuy ma di brutto) a un anticipo di vega con hbm2 e dall'altra parte non ci credo che nvidia con tutto il margine che hanno le 1080 si autosurclassi con il chippone prima del 2017.

- - - Updated - - -

JEDEC’s GDDR5X SGRAM announcement discusses data rates from 10 to 14 Gbps, but Micron believes that eventually they could be increased to 16 Gbps. It is hard to say whether commercial chips will actually hit such data rates, keeping in mind that there are new types of memory incoming. However, even a 256-bit GDDR5X memory sub-systems running at 14 Gbps could provide up to 448 GBps of memory bandwidth, just 12.5% lower compared to that of AMD’s Radeon R9 Fury X (which uses first-gen HBM).

- - - Updated - - -

d3Q7MOD.jpg
 
Dite che usciranno versioni di base col clock alle memorie più tirato?
Comunque io che sono su 4k temo i 256 Gb/s della 1070... anche se i 192 Gb/s della GTX 970 mi fanno fare un 40-50 fps su GTA5 in 4k a un dettaglio medio alto ed è uno spettacolo, ormai io gioco a The Witcher 3 e GTA 5, viva i giochi ottimizzati.
 
Con sta storia dell'HBM 2 inizio a pensare che forse è meglio che continui ad aspettare, non vorrei comprarmi una GPU già "vecchia". Comprarmi una GPU ancora con GDDR5 mi pare una mossa sbagliata, vedendo l'imminente arrivo delle nuove memorie. Ovviamente tutto IMHO.
 
Pubblicità
Pubblicità
Indietro
Top