molis, anche se "dipende dal gioco" (è un tormentone, ma in effetti è questo il reale motivo), la 1070 è leggermente penalizzata da sia per banda ram, mantenendo le GDDR5 a 8000mhz, sia per il fatto che sfrutta tanto i singoli engine grafici, perchè le risorse hw che le hanno lasciato le sfrutta in modo totale (5 su 5 SM, ma solo 3 GPC su 4).
il confronto con la 980 Ti si ferma alla potenza pura, ossia integrazione per frequenza la 980 Ti in overclock a 1250mhz offre 7.1TF, la 1070 in overclock a 2050mhz offre 7.8FT, quindi solo il 93%, ma... di solito stà avanti la 1070, nei benchmark, solo perchè la 980 Ti difficile che la benchano a 1500mhz; la 1070, con la tecnologia turbo mode che ha, a 1900 ci arriva anche se non glie lo specifichi...
quant'altro la differenza piu' marcata sono i GPC usati, 6 contro 3, ed il carico di questi sulle risorse, ossia circa 4 SM a GPC per 980 Ti contro 5 SM per GPC della 1070 (in effetti per 980 Ti abbiamo 2 con 3SM e 4 con 4 SM).
questo aspetto incide sulla massimizzazione del lavoro; è piu' facile trovare un GPC spremuto al massimo sulla 1070, perchè gestisce piu' unità base, che sulla 980 Ti, quindi sulla 980 Ti si puo' sopperire piu' facilmente ai picchi, ed è lo stesso motivo per cuila 1070 Ti avrà piu' "birra" della 1070, di piu' della mera proporzione si cuda core che ha in piu'.
di fatto dipende anche da quanto lavoro viene caricato sulla CPU.
ci sono 2 filoni di giochi, indifferentemente dal tipo di API usato:
quelli che cercano di mediare il lavoro su piu' core, 4 o piu' se DX11 o DX12, e quelli in cui non si riesce a smistare lavoro su piu' risorse, quindi massimizzano l'uso di un solo core.
nota a margine
attento: un solo core non significa (almeno fino alla serie 8) che stai valutando le prestazioni in single core, perchè un minimo di uso lo hai sempre anche sugli altri core e comunque l'uso che ne fai perdura nel tempo...... il turbo mode Intel (diverso il turbo 2 e ancora diverso il turbo 3), si stanca facile; superati i limiti termici o di utilizzo delle altre risorse non interviene piu' e non spinge la CPU ai livelli massimi, ma solo hai livelli massi del base clock.
sei tu che devi overclockare e mandare il processore sempre a 4-4.5Ghz...diversamente non ci vai a quelle frequenze.
giusto per chiarire che se non hai un K il problema si sente parecchio.
a questo comportamento dei giochi ci devi associare la quenstione che le Nvidia 9xx e 10xx hanno una ulteriore schedulizzazione dei threads, per massimizzare l'uso della GPU anche a seconda del modello che hai.... non parliamo di thread generati dalla CPU, ma di "catene di calcolo" eseguite dalla GPU, ossia in che sequenza eseguirle e dove eseguirle.
un lavoro che fanno via driver, quindi con uso della CPU, e che si esegue nello stesso thread principale del gioco, sommandoci questo lavoro.
se il gioco è ottimizzato, va liscio e consuma poco; se il gioco dev'essere rischeduizzato, pochi thread, poco lavoro;
quando dev'essere rischedulizzato, ma è in DX12... le DX12 hanno già una loro gestione dei threads, perchè li separano in sequenze piu' piccole e meno dipendenti dalla consequenzialità del processo.... se non hai in HW GPU le risorse per gestire questi pezzetti di thread e lo fai via driver, è co,e se i pochi threads che dovevi gestire prima si moltiplicassero a dismisura; e lo fai sulla CPU via SW, gravando sul thread principale del gioco; se questo è già appesantito di suo, non c'e' CPU che riesca a servirlo per tutto il lavoro che le sta dando.
di solito cercano di evitare di arrivare a tele situazione (perchè nvidia è dominante sul mercato), ma non puoi coprire gli estremi... una 1080 Ti a 1080p va a bomba... ci vorrebbe un 6Ghz per starle dietro nella maggior parte dei giochi.