Aspettando Nvidia Pascal

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
Piccolo ot: volevo solo informare gli interessati (se ne parlava qualche pag indietro) che le ddr3 2133mhz hanno dato più stabilità alla mia CPU, prima montavo le 1600.
Ho guadagnato una manciata di FPS che servivano decisamente alla mia 780 vetusta.
chiuso ot.
 
Scusate ragazzi, cosa sarebbe in pratica questo calcolo asincrono in cui le nuove nvidia dovrebbero andare peggio delle rivali??
E' una delle novita' introdotte da Dx12, consente di elaborare le istruzioni parallelamente nella Gpu, con un aumento di performance di circa il 10% in Ashes of Singularity.

- - - Updated - - -

Vorrei ritornare sulla questione Async Compute per chiarire un po' la questione.

Innanzitutto, perché non è stato possibile implementarlo sulle DX11?

La risposta è semplice, perché non si avrebbero benefici tangibili, anzi si andrebbe a consumare di più ottenendo le medesime performance, i vantaggi di un calcolo parallelo implicano che sia minima la latenza tra il framework dei driver e l'elaborazione del dato. Quindi con un'API più close to metal, si pongono le basi proprio per l'introduzione del calcolo asincrono, che si può considerare come un'ulteriore affinamento dello sfruttamento della GPU.

Cosa succede in DX12?

Poste le basi per abbattere le latenze, si può pensare la pipeline di calcolo in modo diverso: al posto di un calcolo sequenziale, con relativa ottimizzazione sviluppando istruzioni più semplici possibili (per velocizzare e snellire l'onere della GPU), le istruzioni si possono elaborare parallelamente, senza metterle in coda.
Non sempre questo approccio, anche in DX12, può portare benefici, ma ci sono casi in cui si riesce a spremere un 5-10% in più dalla GPU semplicemente perché nel calcolo sequenziale alcune parti della stessa non sono costantemente stressate.
Una sorta di auto ottimizzazione a discapito dei consumi, ma che se ben implementata qualche vantaggio lo porta in determinate, specifiche, situazioni.

Maxwell come si pone verso l'async compute?

Nvidia pone Maxwell come DX 12.1 compilant, quindi perfettamente in grado di supportare l'async compute.
Queste sono le sue caratteristiche: come abbiamo detto la latenza di esecuzione ha un ruolo importante per avere benefici da questa tecnica, parallelizzando un dato, con Async compute abilitato, la stessa non dovrebbe aumentare ma restare costante, in Maxwell questo succede in modo molto efficace fino a 31 istruzioni contemporanee, superata questa soglia, la latenza inizia a salire.
E' chiaro che per avere un beneficio in DX12 da questa tecnica, bisogna restare entro questa soglia, superata la quale in maniera proporzionale si assisterebbe a un calo di performance.
Quindi considerando il guadagno medio di un 5-10%, con 34 istruzioni contemporanee al massimo, le performance sarebbero del tutto identiche abilitandolo o meno, superata quella soglia potrebbero addirittura peggiorare.

Pascal?

Queste sono considerazioni personali: vedendo quello che si sa dell'architettura, è chiaro che il potenziamento del Warp Scheduler consentirà più margine in questo campo specifico, probabilmente con un raddoppio delle possibilità offerte da Maxwell.
 
dici che c'è speranza nell'aumentare le istruzioni massime da 31 ad un numero maggiore?

C'è da dire che nvidia sembra essere forte nella conservative rasterization, alcune feature come VXAO cominciano ad usarla..

bisogna solo vedere in che modo e misura verranno utilizzate tutte queste feature in un determinato titolo, quindi tra le rivali il panorama secondo me non si discosterà molto da quello che abbiamo visto fino ad oggi

- - - Updated - - -

Io ad oggi penso questo:

X80 40SM 2560cc +40% efficienza= 3584cc maxwell quindi superiore a 980ti/titan x

per x70 avrei due ipotesi

SM da 32 a 35 abilitati

SM 32 2048 CC +40%= ~2867 cc maxwell, a Livello di GTX 980TI

SM 35 2240cc +40%= 3136cc maxwell, un pelo superiore a titan x

ovviamente i 35 Sm abilitati sono nella più rosea delle ipotesi..con 35 sm ci sarebbe uno stacco molto contenuto da x80.. intorno al 10%


poi (con il tempo) abbiamo visto come 1664cc (gtx 970) abbiano fatto il loro compito si eguaglia quasi gtx 780ti..
 
Ultima modifica da un moderatore:
Il problema e' che non sono nemmeno chiare le potenzialita' di Maxwell in tal senso, bisognerebbe anche capire quanto incida tutto cio' su consumi e temperature.
L'unica e' aspettare.
La mia idea attuale e':

X70

2048 cc
Gddr5x
400 mm2

+ 10% circa da 980 ti

X80

2560 cc
Gddr5x
400 mm2

+ 35% da 980 ti

Ovviamente conto avranno frequenze base piu' elevate.

Inviato dal mio SM-N9005 utilizzando Tapatalk
 
Ultima modifica da un moderatore:
Si è vero alla fine il +40% di efficienza per cc rispetto a kepler è condito da altre piccole ottimizzazioni..
Un tessellator più potente ed altre piccole cose, potrebbero aver dato un ulteriore +10% di slancio, sempre in proporzione ai cuda core..

Altrimenti se ci si basa solo su questo, non si spiega come gtx 970 sin dall'inizio massacrasse gtx 780..

Da 1664 a 2304cc ci passa un 40%, a rigor di logica doveva pareggiare con gtx 780 ma l'ha subito distrutta a settembre 2014.
 
Ultima modifica da un moderatore:
Domanda: secondo te che margini di clock avra'?

Inviato dal mio SM-N9005 utilizzando Tapatalk
 
Domanda: secondo te che margini di clock avra'?

Inviato dal mio SM-N9005 utilizzando Tapatalk

Eh.. bella domanda...
Abbiamo visto un gp100 a 1480 di boost clock.. roba che in boost 2.0 supera i 1550 di slancio (se è tipo maxwell)

I gp104 potrebbero essere belli tirati, x80 reference non oso immaginare a quanto parta..

Penso che vedremo i 1500mhz già a default su gpu-z:lol:

Poi tutto dipende anche dalla qualità del silicio.. se non mi lasciano margine di oc mi inxxxxo:lol:

Io gpu chiodo non ne voglio. anche perchè sarebbe fuffa, visto che una 980ti prende il largo.. già le buone custom (rispetto a reference) sono sopra il 23% in 4k senza fare oc..
1450/7200.. facendo oc da reference si vola
 
Ultima modifica da un moderatore:
1500 default vola, credo sui 1400 con le custom sui 1550

Inviato dal mio SM-N9005 utilizzando Tapatalk
 
E 1800mhz in overclock tirato :)
Alla fine io con la mia gtx 970, gioco a 1600 mhz con bios modificato. E parte da 1253 la mia custom. .quindi 1800 dovrebbero essere fattibili

Inviato dal mio GT-S7580 utilizzando Tapatalk
 
E 1800mhz in overclock tirato :)
Alla fine io con la mia gtx 970, gioco a 1600 mhz con bios modificato. E parte da 1253 la mia custom. .quindi 1800 dovrebbero essere fattibili

Inviato dal mio GT-S7580 utilizzando Tapatalk
guka tu in boost 2.0 superi i 1380 già a default.. se mi ricordo bene..
Quella del vecchio @Gameshard (giga g1) vola a 1400 a default

Inviato dal mio SM-G920F utilizzando Tapatalk
 
La mia non è la g1;
1318 in bost 2
Cmq vorrei vedere almeno 1700 ;)

Inviato dal mio GT-S7580 utilizzando Tapatalk
 
Io 1379 default g1 gtx 970

Inviato dal mio SM-N9005 utilizzando Tapatalk
 
C'è da considerare anche il fatto che questa volta avranno dissipatori nuovi (reference) se migliorano la dissipazione, danno + ventola con meno rumore ed un tdp di soli 150w, il gm200 reference parte notevolmente in svantaggio, visto che deve dissipare 250w (100 in più) con un dissipatore peggiore..

saranno belli furbi a questo giro, le reference potrebbero figurare bene, senza bisogno di simularle con le custom per aver risultati degni di nota
 
Ultima modifica da un moderatore:
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top