UFFICIALE GTX 1080-1070: il debutto di Pascal

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
Due cose mi sembrano alquanto strane:
1) un clock di 850MHz non ha alcun senso... è vero che GCN ha un IPC migliore di Maxwell ma un clock così basso su una VGA desktop non si vede dalle HD6000. Potrebbe avere un senso solo per GPU mobili ma rimarrebbe alquanto strano.

2) quando le aziende high tech lanciano ufficialmente i prodotti, le linee produttive sono già attive da settimane (se non da mesi) per permettere ai partner di avere i componenti in tempo. Pertanto, un simile problema sarebbe emerso già mesi fa con i vari engineering sample. Del resto, se fosse vero, la perdita per AMD sarebbe di centinaia di milioni di dollari e quindi sarebbe l'ultimo dei problemi.



IMHO sì ma non credo che le GTX 1060 e 1050 (oltre alle varie "ti") siano poi così distanti...

Anche secondo me non è vero. E' uno scenario troppo assurdo pure per AMD cavolo xD
 
1080.jpg

e questo da dove salta fuori?:oogle:
 

Potrebbe essere un limite dello SLI HB Bridge, nel senso che potrebbe usare entrambe le porte SLI della scheda e quindi a quel punto ovviamente non se ne potrebbero usare più di 2. Con lo SLI Bridge normale in tal caso dovrebbe rimanere il supporto al 3 o 4 way SLI.
Ma tanto, parliamoci chiaro, al 99.99% degli utenti non interessano queste configurazioni, quindi non è un problema.
 
Non so se è stato già detto dato che spammate come locuste in calore, ma questa è la pagina ufficiale nvidia:

GTX 1080 Graphics Card | GeForce

Specifiche del motore della GPU:

[TABLE="class: spec-table"]
[TR]
[TD]NVIDIA CUDA® Cores[/TD]
[TD]2560[/TD]
[/TR]
[TR]
[TD]Clock di base (MHz)[/TD]
[TD]1607[/TD]
[/TR]
[TR]
[TD]Clock boost (MHz)[/TD]
[TD]1733[/TD]
[/TR]
[/TABLE]
Specifiche di memoria:
[TABLE="class: spec-table"]
[TR]
[TD]Velocità della memoria[/TD]
[TD]10 Gbps[/TD]
[/TR]
[TR]
[TD]Configurazione standard della memoria[/TD]
[TD]8 GB GDDR5X[/TD]
[/TR]
[TR]
[TD]Ampiezza dell'interfaccia di memoria[/TD]
[TD]256-Bit[/TD]
[/TR]
[TR]
[TD]Banda di memoria (GB/s)[/TD]
[TD]320[/TD]
[/TR]
[/TABLE]
Supporto tecnologico:
[TABLE="class: spec-table"]
[TR]
[TD]Multi-proiezione[/TD]
[TD]10 Gbps[/TD]
[/TR]
[TR]
[TD]VR Ready[/TD]
[TD]Sì[/TD]
[/TR]
[TR]
[TD]NVIDIA Ansel[/TD]
[TD]Sì[/TD]
[/TR]
[TR]
[TD]NVIDIA SLI®-Ready[SUP]1[/SUP][/TD]
[TD]Sì- Bridge SLI HB supportato[/TD]
[/TR]
[TR]
[TD]NVIDIA G-Sync™-Ready[/TD]
[TD]Sì[/TD]
[/TR]
[TR]
[TD]NVIDIA GameStream™-Ready[/TD]
[TD]Sì[/TD]
[/TR]
[TR]
[TD]NVIDIA GPU Boost™[/TD]
[TD]3.0[/TD]
[/TR]
[TR]
[TD]Microsoft DirectX[/TD]
[TD]12 API con livello funzionalità 12_1[/TD]
[/TR]
[TR]
[TD]Vulkan API[/TD]
[TD]Sì[/TD]
[/TR]
[TR]
[TD]OpenGL[/TD]
[TD]4.5[/TD]
[/TR]
[TR]
[TD]Bus supportati[/TD]
[TD]PCIe 3.0[/TD]
[/TR]
[TR]
[TD]Certificazione SO[/TD]
[TD]Windows 7-10, Linux, FreeBSDx86[/TD]
[/TR]
[/TABLE]
Supporto dei display:
[TABLE="class: spec-table"]
[TR]
[TD]Massima risoluzione digitale[SUP]1[/SUP][/TD]
[TD]7680x4320 @ 60 Hz[/TD]
[/TR]
[TR]
[TD]Connettori per display standard[/TD]
[TD]DP 1.4[SUP]2[/SUP], HDMI 2.0b, DL-DVI[/TD]
[/TR]
[TR]
[TD]Multi Monitor[/TD]
[TD]Sì[/TD]
[/TR]
[TR]
[TD]HDCP[/TD]
[TD]2.2[/TD]
[/TR]
[/TABLE]
Graphics Card Dimensions:
[TABLE="class: spec-table"]
[TR]
[TD]Altezza[/TD]
[TD]4,376"[/TD]
[/TR]
[TR]
[TD]Lunghezza[/TD]
[TD]10,5"[/TD]
[/TR]
[TR]
[TD]Larghezza[/TD]
[TD]2 slot[/TD]
[/TR]
[/TABLE]
Thermal and Power Specs:
[TABLE="class: spec-table"]
[TR]
[TD]Temperatura massima della GPU (in °C)[/TD]
[TD]94
[/TD]
[/TR]
[TR]
[TD]Potenza della scheda grafica (W)[/TD]
[TD]180 W[/TD]
[/TR]
[TR]
[TD]Potenza consigliata dell'alimentatore di sistema (W)[SUP]3[/SUP][/TD]
[TD]500 W[/TD]
[/TR]
[TR]
[TD]Connettori di alimentazione supplementari[/TD]
[TD]8 pin[/TD]
[/TR]
[/TABLE]
 
Visti i dubbi, indicativamente:

1070/1080 sembrano adatte a:

1920x1080 144 hz eccellenza assoluta di perfromance
2560x1440 60-144 hz eccellenza a 60 hz ottime performance a 144 hz
3820x2160 60 hz penso buon supporto.
 
Non è detto sia fake. Sto controllando...

- - - Updated - - -



Una cosa del genere sarebbe davvero ridicola sinceramente...
dai ma davvero ci sei cascato?

come fa ad essere vero?

su gpu-z dovrebbe segnare o 1250*8 o 2500*4 (a seconda di come legge gpu-z) nella voce memory clock default.. quelle sono chiaramente gddr5 a 7gbps
 
Pubblicità
Pubblicità
Indietro
Top