UFFICIALE GTX 1080-1070: il debutto di Pascal

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
una 980ti a 1190mhz sviluppa 6.7 Tflops

una 1070 a 1750 mhz sviluppa 6.7 tflops

come potenza computazionale sono identiche, senza contare alcune migliorie di pascal rispetto a maxwell

inoltre da gtx 980ti a 1080 corre un +37%, ora per credere a quello che tu dici, gtx 1080 dovrebbe staccare gtx 1070 del 40%...

impossibile/

gtx 1070 sarà più veloce di 980ti, di poco, ma più veloce

perfrel_2560_1440.png
secondo me si piazza sul 77-78%
 
peccato che non esista solo Async.:asd:

Amd ha delle carenze lato geometrie non di poco conto, Gp104 è ancora più forte rispetto a Gm200
degrfgd.webp

- - - Updated - - -

anche qui un orrore, quel caxxo di dissipatore non la fa esprimere... tocca il clock base (minimo) 1600 mhz:cry:
clock_gpu.png
 
Ultima modifica da un moderatore:
Non è scritto ma è abbastanza scontato.
Considerando che la FuryX raggiunge il 75% delle performance della 1080, ipotizzando solamente un die shrink di Fiji XT senza alcuna ottimizzazione di architettura (il che già di per sé non ha molto senso) e l'utilizzo ormai certo di vRAM HBM2, a questo Vega basterebbe un clock di 1,3~1,4GHz per pareggiare se non superare le prestazioni di una 1080 reference.

E' vero che AMD ha sempre avuto clock più conservativi di nVidia, ma se Pascal arriva a 2GHz e oltre, non penso che Polaris e Vega fatichino a raggiungere 1,5~1,6 GHz

Guarda Lord, in questo caso c'è una variabile in più, ovvero i processi produttivi differenti: non è detto che i 14nm Samsung che usa AMD siano inclini alle alte frequenze quanto i 16nm TSMC di Nvidia. Inoltre Nvidia stessa ha dichiarato di aver lavorato sull'architettura proprio per massimizzare le frequenze (come di preciso non lo so, non sono un ingegnere :asd:) probabilmente a discapito di un po' di efficienza. AMD, per quanto ne sappiamo, potrebbe aver scelto una strada opposta, privilegiando l'efficienza dell'architettura, sia a livello energetico, sia a livello di IPC.
Per cui, pur concordando sul fatto che le nuove avranno frequenze maggiori delle vecchie, non sarei così sicuro che si passerà dai 1000\1100MHz attuali a ben 1500\1600MHz per le nuove: l'incremento potrebbe essere inferiore.

Ragazzi ma avete visto le pretsazioni della 1080? e la 1070 dovrebbe andare più di una TI? Credetemi, non succederà mai

Appunto, ho visto le prestazioni della 1080. Visto che quest'ultima batte la 980ti del 30\35% comodamente, a meno che la differenza tra 1070\1080 sia mostruosa, la 1070 batterà anch'essa la 1080. Certo parliamo di una differenza irrisoria: facendo qualche calcolo sulle specifiche, come dicevo ormai parecchie pagine fa (ma quanto scrivete oh :lol:), saremo al +5\10% reference to reference.

anche qui un orrore, quel caxxo di dissipatore non la fa esprimere... tocca il clock base (minimo) 1600 mhz:cry:
clock_gpu.png

Solid, meglio così no? Le prestazioni sono quelle che abbiamo visto: se le frequenze in gaming sono inferiori a quanto ci si aspetta vuol dire che una custom overcloccata a 2.2-2.3GHz guadagnerà di più. :asd:
 
Ultima modifica:
scusate, ma le review di gtx 1070 quando usciranno?
il 10 giugno è la data di lancio sul mercato, le review non dovrebbero uscire prima (prendendo come riferimento gtx 1080)
 
un vero peccato non abbiano messo gddr5x su 1070... tanto tagliando fino a 1920cc non credo che i 2ghz in più delle micron (sotto bench) avrebbero fatto la differenza, si sarebbe avvicinata di pochissimo (5%??) a gtx 1080..
anche perchè le 8gpbs della samsung sono belle veloci, quindi il vantaggio più grosso sta nella quantità di banda 320gb/s contro 256 Gb/s, in termini di prestazioni le samsung sono ottime, poi magari lo scopriremo, vorrei vedere anche le micron all'opera..

vuoi per la poca disponibilità di gddr5x, vuoi per differenziare di più i due prodotti, comunque sia, mi dispiace..
 
Ultima modifica da un moderatore:
Gira sempre e solo il solito bench su questo RTS di dubbia qualità. Se i giochi che sfruttano questa caratteristica sono questi possiamo dormire tutti sonni più che tranquilli :vv:. Cmq a parte tutto la questione non è chiara e sopratutto le DX12 NON sono async compute.

AotS è l'unico gioco ottimizzato sia per le verdi che le rosse con uno scaling del 100% nel multigpu, ed è l'UNICO gioco che permette di avere nello stesso pc sia Nvidia che Amd.
Poi c'è anche Hitman che dimostra la stessa cosa.
81664.png

Hai ragione quando dici che le DX12 non sono solo async, ma considera che molti giochi di quest'anno saranno sponsorizzati Amd quindi pieni di async, e non consideri che lo usano anche le console.
I giochi DX12 usciti finora sono 6:
Rise of the Tomb Raider, Ashes of the Singularity ,Hitman, Quantum Break, Gears of Wars e Killer instinct. Nvidia sta davanti solo in Tomb Raider, Amd sta davanti in tutti gli altri (e per davanti intendo r9 390x=980ti)
?????? ??????? ????? ? DirectX 12. ?????????? AMD ?????? NVIDIA - ???????? 2 / Overclockers.ua
 
un vero peccato non abbiano messo gddr5x su 1070... tanto tagliando fino a 1920cc non credo che i 2ghz in più delle micron (sotto bench) avrebbero fatto la differenza, si sarebbe avvicinata di pochissimo (5%??) a gtx 1080..
anche perchè le 8gpbs della samsung sono belle veloci, quindi il vantaggio più grosso sta nella quantità di banda 320gb/s contro 256 Gb/s, in termini di prestazioni le samsung sono ottime, poi magari lo scopriremo, vorrei vedere anche le micron all'opera..

vuoi per la poca disponibilità di gddr5x, vuoi per differenziare di più i due prodotti, comunque sia, mi dispiace..

perché pensi io guardi anche dall'altra parte della sponda scusa? :asd:
propri perché non mi piace quel limite di banda... mi ricorda un po' 770 2GB (scheda ancora buona, ma ammazzata dalla poca memoria). Idem qui per la banda passante. Ed ora i giochi la stanno sfruttando sempre più...

ragionamento più, ragionamento meno
 
AotS è l'unico gioco ottimizzato sia per le verdi che le rosse con uno scaling del 100% nel multigpu, ed è l'UNICO gioco che permette di avere nello stesso pc sia Nvidia che Amd.
Poi c'è anche Hitman che dimostra la stessa cosa.
81664.png

Hai ragione quando dici che le DX12 non sono solo async, ma considera che molti giochi di quest'anno saranno sponsorizzati Amd quindi pieni di async, e non consideri che lo usano anche le console.
I giochi DX12 usciti finora sono 6:
Rise of the Tomb Raider, Ashes of the Singularity ,Hitman, Quantum Break, Gears of Wars e Killer instinct. Nvidia sta davanti solo in Tomb Raider, Amd sta davanti in tutti gli altri (e per davanti intendo r9 390x=980ti)
?????? ??????? ????? ? DirectX 12. ?????????? AMD ?????? NVIDIA - ???????? 2 / Overclockers.ua

Fatico un po' a crederci sinceramente. Questo è quello che trovi nella home di Ashes of the Singularity:

y43Az2P.png


E' questo in quello di hitman:

2mVTgEj.png

Se mi porti sti due giochi non provi niente. Ma 0 proprio.

Poi non so i bench dove li prendi ma se su overclock3d.net vedo che Gears of Wars la situazione è questa:

03134723392l.jpg


Non so dove vedi che sta avanti AMD.

Anche quantum break a settaggi ultra AMD sta dietro.

06123013647l.jpg
 
Ultima modifica da un moderatore:
Pubblicità
Pubblicità
Indietro
Top