Aspettando Nvidia Pascal

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
Infatti io non sono affatto convinto che una x70 raggiungerà o starà sotto di poco di una 980ti, non so se i miglioramenti saranno solo software, ma se così fosse la domanda sorge spontanea, l'hardware di Maxwell è una piattaforma che sicuramente non permetterebbe questa ottimizzazione? Fermo restando che sto aspettando anche io la serie Pascal, avendo venduto la mia 960, soprattutto perché avevo il modello 2 gb anche se Gigabyte, però sicuramente sarebbe stato poi limitante a breve.

Sono speculazioni, Pascal è una nuova architettura a tutti gli effetti e non si ancora molto in merito al supporto: quello che si sa è che Maxwell è DX 12.1 come feature level, GCN è fermo a 12.0, ma supporta in Hw l'async compute.
Sta anche venendo fuori come i drivers DX11 di Nvidia siano notevolmente più inclini a macinare draw calls rispetto alla controparte AMD, che punta, è evidente, su DX12 senza, però, supportarle pienamente.
Purtroppo è una situazione in divenire che non è molto chiara a nessuno.
 
Infatti io non sono affatto convinto che una x70 raggiungerà o starà sotto di poco di una 980ti, non so se i miglioramenti saranno solo software, ma se così fosse la domanda sorge spontanea, l'hardware di Maxwell è una piattaforma che sicuramente non permetterebbe questa ottimizzazione? Fermo restando che sto aspettando anche io la serie Pascal, avendo venduto la mia 960, soprattutto perché avevo il modello 2 gb anche se Gigabyte, però sicuramente sarebbe stato poi limitante a breve.

Ma infatti non saranno software i miglioramenti, ma hardware. Ci saranno sicuramente degli interventi sull'architettura per migliorarne l'efficienza, anche se non sarà uno stravolgimento radicale: inoltre il pp nuovo consentirà, a parità di consumi e spazio occupato sul die, di inserire molte più risorse e già questo basta per aspettarsi un buon incremento prestazionale. Difatti tutti si aspettano un GP104, sostituto del GM204 (GTX980, GTX970), che supererà la 980ti, mentre il chip più grosso, che uscirà dopo, la staccherà sicuramente di un bel pezzo.

Forse ti confondi con il fatto che l'implementazione Nvidia dell'asynchronous computing rimarrà basata sul software, quindi le nuove schede rimarranno dipendenti dalle ottimizzazioni dello stesso per raggiungere buoni risultati da questo punto di vista: comunque sicuramente l'implementazione hardware di AMD, nel caso il calcolo asincrono venga usato pesantemente, è più efficace.
 
Sono speculazioni, Pascal è una nuova architettura a tutti gli effetti e non si ancora molto in merito al supporto: quello che si sa è che Maxwell è DX 12.1 come feature level, GCN è fermo a 12.0, ma supporta in Hw l'async compute.
Sta anche venendo fuori come i drivers DX11 di Nvidia siano notevolmente più inclini a macinare draw calls rispetto alla controparte AMD, che punta, è evidente, su DX12 senza, però, supportarle pienamente.
Purtroppo è una situazione in divenire che non è molto chiara a nessuno.

E' proprio questo il motivo per cui sto aspettando almeno che escano, così da avere un quadro reale delle vere differenze. Ho visto che per il gaming week c'è in offerta una Zotac 970 a 273 euro, bel prezzo, ma mi sembra più saggio aspettare, non mi pare un grosso affare acquistare un'architettura del 2014, personalmente, o meglio la tentazione c'è ma già a settembre so che me ne potrei pentire. Staremo a vedere, la cosa che mi annoia un po' è dover attendere il lento rilascio prima di x80, poi il modello ti, poi x70, dopo un anno x60, magari dopo due x50 a fine ciclo. Io che vorrei acquistare una scheda budget e che non posso acquistare x80 devo forse aspettare un minimo di sei mesi dall'uscita e magari anche l'assestarsi dei prezzi, ma purtroppo sono le leggi del mercato. Certo sarebbe meglio metterle tutte su un tavolo e lasciare le persone libere di acquistare ciò che può e acquistare ciò di cui ha reale esigenza, paragonando ogni scheda all'altra come è ora possibile fare con Maxwell, in cui è possibile constarare come siano tutte buone schede, per ogni fascia di prezzo dalla 950 alla 980ti, nessuno ne esce scontento, paga ciò che ha, e il più delle persone possono facilmente ritenere la 980 liscia il peggiore affare, la 970 il migliore economicamente e qualitativamente, e la 980ti la più interessante sicuramente, ma per una fascia di prezzo a cui non tutti possono o vogliono arrivare. D'altronde oggi costa 150 euro l'amp edition Zotac della 950 che è una dignitosissima scheda fHD, il prezzo è saggio. Le opzioni sono tante, ma Pascal le rende forse meno appetibili.
In questa tornata guarderò con molta attenzione le x70, soprattutto se dovessero essere il vero best buy qualità prezzo com'è stato con Maxwell, anche se una 1060 ipotetica superasse la 970 ad una cifra sui 200 circa, sarebbe anche quello un aspetto considerevole.
 
Come si vede la qualità del lavoro svolto sui drivers DX11 da parte di Nvidia è notevole, frutto di anni di ottimizzazione, costituendo quasi una via di mezzo tra DX11 e DX12, sono proprio curioso di vedere i benefici di un lavoro specificatamente indirizzato sulle nuove API, che secondo me è già iniziato ma se ne vedranno i frutti col debutto di Pascal.

C'è una piccola ma determinante differenza: con le DX11, i driver risultano assolutamente determinanti come si è visto in questi anni. Ciò in quanto svolgono lo stesso ruolo e hanno la stessa importanza di un interprete che aiuta un italiano ed un aborigeno australiano a capirsi a vicenda. E' ovvio che più l'interprete è veloce, più dimestichezza ha con entrambe le lingue, e migliori saranno i risultati; ovvero, più il driver è snello e veloce e maggiori saranno le prestazioni che riuscirà a tirar fuori.

Con le DX12, invece, lo scenario cambia completamente perché una delle due persone (in questo caso Microsoft) ha dato all'altra (AMD e nVidia) non solo un bel vocabolario ma anche una pila di testi di grammatica, analisi logica, etc., da studiare. Ne consegue che l'impatto dovuto all'interprete-driver sarà di gran lunga ridotto mentre aumenterà in modo deciso l'impatto dell'implementazione in hardware delle specifiche delle DX12.

Certo, i driver potranno sempre aiutare e, soprattutto, correggere eventuali problemi dovuti ad un'implementazione non perfetta, ma il loro ruolo sarà marginale. Basta leggere un po' di documentazione tecnica per rendersi conto della notevole differenza che c'è fra i due approcci. Un esempio per capire: mentre con le DX11 i sistemi MultiGPU necessitano di profili driver specifici, peraltro con tutti i limiti che conosciamo bene (vedi GPU della stessa famiglia), con le DX12 la gestione di SLI/CrossFire è implementata direttamente nelle API, peraltro in modo così profondo che è possibile usare contemporaneamente GPU non solo di famiglie diverse ma anche di architettura completamente diversa (purché entrambe supportino le DX12, ovviamente).

Pertanto, le DX12 lavorano così in basso e vicino al chip che il ruolo svolto dai driver sarà quasi marginale. Quindi, non mi soffermerei più di tanto su quanto nVidia abbia saputo ottimizzare i driver per le DX11 perché sarà molto più determinante quanto bene avranno saputo implementare le DX12 in hardware, ben sapendo che questo dipende direttamente dall'architettura stessa dei chip. Pertanto, mentre fino ad oggi abbiamo assistito a grandi incrementi prestazionali grazie all'affinamento dei driver, dalle DX12 in poi temo che tali incrementi saranno molto più contenuti.


Sono speculazioni, Pascal è una nuova architettura a tutti gli effetti e non si ancora molto in merito al supporto: quello che si sa è che Maxwell è DX 12.1 come feature level, GCN è fermo a 12.0, ma supporta in Hw l'async compute.
Corretto :sisi: cmq le specifiche esatte per i vari feature level le trovi qui :ok:
 
Ultima modifica:
C'è una piccola ma determinante differenza: con le DX11, i driver risultano assolutamente determinanti come si è visto in questi anni. Ciò in quanto svolgono lo stesso ruolo e hanno la stessa importanza di un interprete che aiuta un italiano ed un aborigeno australiano a capirsi a vicenda. E' ovvio che più l'interprete è veloce, più dimestichezza ha con entrambe le lingue, e migliori saranno i risultati; ovvero, più il driver è snello e veloce e maggiori saranno le prestazioni che riuscirà a tirar fuori.

Con le DX12, invece, lo scenario cambia completamente perché una delle due persone (in questo caso Microsoft) ha dato all'altra (AMD e nVidia) non solo un bel vocabolario ma anche una pila di testi di grammatica, analisi logica, etc., da studiare. Ne consegue che l'impatto dovuto all'interprete-driver sarà di gran lunga ridotto mentre aumenterà in modo deciso l'impatto dell'implementazione in hardware delle specifiche delle DX12.

Certo, i driver potranno sempre aiutare e, soprattutto, correggere eventuali problemi dovuti ad un'implementazione non perfetta, ma il loro ruolo sarà marginale. Basta leggere un po' di documentazione tecnica per rendersi conto della notevole differenza che c'è fra i due approcci. Un esempio per capire: mentre con le DX11 i sistemi MultiGPU necessitano di profili driver specifici, peraltro con tutti i limiti che conosciamo bene (vedi GPU della stessa famiglia), con le DX12 la gestione di SLI/CrossFire è implementata direttamente nelle API, peraltro in modo così profondo che è possibile usare contemporaneamente GPU non solo di famiglie diverse ma anche di architettura completamente diversa (purché entrambe supportino le DX12, ovviamente).

Pertanto, le DX12 lavorano così in basso e vicino al chip che il ruolo svolto dai driver sarà quasi marginale. Quindi, non mi soffermerei più di tanto su quanto nVidia abbia saputo ottimizzare i driver per le DX11 perché sarà molto più determinante quanto bene avranno saputo implementare le DX12 in hardware, ben sapendo che questo dipende direttamente dall'architettura stessa dei chip. Pertanto, mentre fino ad oggi abbiamo assistito a grandi incrementi prestazionali grazie all'affinamento dei driver, dalle DX12 in poi temo che tali incrementi saranno molto più contenuti.



Corretto :sisi: cmq le specifiche esatte per i vari feature level le trovi qui :ok:

seì un signore lord!! :D leggere i tuoi interventi mentre spieghi con parole semplici argomenti che, se affrontati in una lettura più tecnica risulterebbero di più difficile comprensione, rendi la vita più facile pure a noi nabbi e sfaticati che di cercarci le info da soli non ne vogliamo sapere (parlo per me! :P), e ci aiuti a capire un pò le cose come stanno realmente!! :birra:
sì, voglio il tuo like!! hai capito benissimo!!! :asd::lol:
 
Ultima modifica da un moderatore:
seì un signore lord!! :D leggere i tuoi interventi mentre spieghi con parole semplici argomenti che, se affrontati in una lettura più tecnica risulterebbero di più difficile comprensione, rendi la vita più facile pure a noi nabbi e sfaticati che di cercarci le info da soli non ne vogliamo sapere (parlo per me! :P), e ci aiuti a capire un pò le cose come stanno realmente!! :birra:
sì, voglio il tuo like!! hai capito benissimo!!! :asd::lol:
Bè, non lo sapevi che NON mi pagano apposta per fare queste cose? :asd:
Scherzi a parte, a volte rendere le cose troppo semplici richiede di fare delle approssimazioni abbastanza spinte, quindi prendete sempre questi post cum grano salis​ ;)
 
Bè, non lo sapevi che NON mi pagano apposta per fare queste cose? :asd:
Scherzi a parte, a volte rendere le cose troppo semplici richiede di fare delle approssimazioni abbastanza spinte, quindi prendete sempre questi post cum grano salis​ ;)

sì, certo che NON lo sapevo, ma che domande mi fai!!! :asd::lol:
 
@LordNight

Ciao LordNight

Vedremo. Soprattutto se async compute resteranno dipendenti dal supporto software, ma credo anche che in caso contrario ottimizzare, seppur con minor margine, certamente, visto l'API più close to metal, sia comunque assolutamente possibile. Resta il fatto che su DX11 hanno fatto davvero un ottimo lavoro scongiurando la possibile frammentazione delle API ai tempi di Mantle.
 
E' proprio questo il motivo per cui sto aspettando almeno che escano, così da avere un quadro reale delle vere differenze. Ho visto che per il gaming week c'è in offerta una Zotac 970 a 273 euro, bel prezzo, ma mi sembra più saggio aspettare, non mi pare un grosso affare acquistare un'architettura del 2014, personalmente, o meglio la tentazione c'è ma già a settembre so che me ne potrei pentire. Staremo a vedere, la cosa che mi annoia un po' è dover attendere il lento rilascio prima di x80, poi il modello ti, poi x70, dopo un anno x60, magari dopo due x50 a fine ciclo. Io che vorrei acquistare una scheda budget e che non posso acquistare x80 devo forse aspettare un minimo di sei mesi dall'uscita e magari anche l'assestarsi dei prezzi, ma purtroppo sono le leggi del mercato. Certo sarebbe meglio metterle tutte su un tavolo e lasciare le persone libere di acquistare ciò che può e acquistare ciò di cui ha reale esigenza, paragonando ogni scheda all'altra come è ora possibile fare con Maxwell, in cui è possibile constarare come siano tutte buone schede, per ogni fascia di prezzo dalla 950 alla 980ti, nessuno ne esce scontento, paga ciò che ha, e il più delle persone possono facilmente ritenere la 980 liscia il peggiore affare, la 970 il migliore economicamente e qualitativamente, e la 980ti la più interessante sicuramente, ma per una fascia di prezzo a cui non tutti possono o vogliono arrivare. D'altronde oggi costa 150 euro l'amp edition Zotac della 950 che è una dignitosissima scheda fHD, il prezzo è saggio. Le opzioni sono tante, ma Pascal le rende forse meno appetibili.
In questa tornata guarderò con molta attenzione le x70, soprattutto se dovessero essere il vero best buy qualità prezzo com'è stato con Maxwell, anche se una 1060 ipotetica superasse la 970 ad una cifra sui 200 circa, sarebbe anche quello un aspetto considerevole.

Beh, X80 e X70 storicamente escono insieme o in rapida successione, quindi se ti interessa quest'ultima, per fine giugno dovresti vederla già sul mercato, secondo le ultime indiscrezioni.
 
@LordNight

Ciao LordNight

Vedremo. Soprattutto se async compute resteranno dipendenti dal supporto software, ma credo anche che in caso contrario ottimizzare, seppur con minor margine, certamente, visto l'API più close to metal, sia comunque assolutamente possibile. Resta il fatto che su DX11 hanno fatto davvero un ottimo lavoro scongiurando la possibile frammentazione delle API ai tempi di Mantle.

L'Asynchronous Compute è probabilmente la cosa più interessante delle DX12 perché permette di spremere ogni FPS possibile riducendo, fin quasi ad annullare, tutti i tempi morti, proprio perché la GPU è in grado di distribuire autonomamente fra tutte le sue parti i vari compiti. Il rovescio della medaglia è che così facendo la GPU finisce per lavorare davvero al 100% per tutto il tempo, vanificando almeno in parte le ottimizzazioni raggiunte con gli algoritmi di gestione delle tensioni e dei consumi.
Quindi spero vivamente che la implementino in hardware invece che affidarla al software.

Ciò premesso, se nVidia con le DX11 ha fatto un ottimo lavoro - il che è indubbio - con Mantle non ha capito nulla, o meglio, lo ha capito benissimo ma se ne è fregata, probabilmente per timore che CUDA perdesse ancora più consensi.
Probabilmente, a te sfugge che le API sono già frammentate da anni: Direct3D, OpenGL, OpenCL, CUDA, etc., sono tutte API. Quello che AMD aveva proposto con Mantle - e che avrebbe fatto la nostra fortuna come videogiocatori - era di creare una API unica, aperta a tutti ed al contributo di tutti, che potesse soppiantare le DX su Windows e Xbox, OpenGL su Linux e altri sistemi operativi (anche mobili) e OpenCL/CUDA per il GPGPU.

In un futuro nemmeno molto remoto questo avrebbe permesso agli sviluppatori di lavorare con una sola API grafica invece che con una per ogni piattaforma, riducendo così tempi e costi di sviluppo ed aumentando la qualità dei prodotti stessi. In pratica noi ci saremmo ritrovati a spendere meno per un gioco nettamente migliore... invece ci ritroveremo ancora a lamentarci di porting fatti con i piedi e di feature GameWorks implementate male che ammazzano le prestazioni.

Eh sì, direi che nVidia ha proprio scongiurato un disastro :sisi:
 
L'Asynchronous Compute è probabilmente la cosa più interessante delle DX12 perché permette di spremere ogni FPS possibile riducendo, fin quasi ad annullare, tutti i tempi morti, proprio perché la GPU è in grado di distribuire autonomamente fra tutte le sue parti i vari compiti. Il rovescio della medaglia è che così facendo la GPU finisce per lavorare davvero al 100% per tutto il tempo, vanificando almeno in parte le ottimizzazioni raggiunte con gli algoritmi di gestione delle tensioni e dei consumi.
Quindi spero vivamente che la implementino in hardware invece che affidarla al software.

Ovviamente un supporto HW è auspicabile. Che DX12 siano solo (o in gran parte) asyncronous compute, non concordo. Siamo ancora agli inizi del supporto, bisogna solo vedere come si evolve la situazione per Nvidia.

Ciò premesso, se nVidia con le DX11 ha fatto un ottimo lavoro - il che è indubbio - con Mantle non ha capito nulla, o meglio, lo ha capito benissimo ma se ne è fregata, probabilmente per timore che CUDA perdesse ancora più consensi.

Nvidia è stata chiarissima nella strategia, ha migliorato il supporto DX11 e messo le basi per quello DX12 e Vulkan.

Probabilmente, a te sfugge che le API sono già frammentate da anni: Direct3D, OpenGL, OpenCL, CUDA, etc., sono tutte API. Quello che AMD aveva proposto con Mantle - e che avrebbe fatto la nostra fortuna come videogiocatori - era di creare una API unica, aperta a tutti ed al contributo di tutti, che potesse soppiantare le DX su Windows e Xbox, OpenGL su Linux e altri sistemi operativi (anche mobili) e OpenCL/CUDA per il GPGPU.

Frammentazione per Hw, Mantle AMD, relativa API Nvidia close to metal, relativa Intel. Scenario che nessuno voleva.

In un futuro nemmeno molto remoto questo avrebbe permesso agli sviluppatori di lavorare con una sola API grafica invece che con una per ogni piattaforma, riducendo così tempi e costi di sviluppo ed aumentando la qualità dei prodotti stessi. In pratica noi ci saremmo ritrovati a spendere meno per un gioco nettamente migliore... invece ci ritroveremo ancora a lamentarci di porting fatti con i piedi e di feature GameWorks implementate male che ammazzano le prestazioni.

Esattamente quello che fa Nvidia con Vulkan che ha tutte queste caratteristiche ed è pronta ad essere utilizzata. Non è limitata da un OS ne da un HW specifico.
Solo che DX hanno un supporto e degli strumenti NETTAMENTE migliori, debugging avanzato, ecc..
Gameworks è su github pronto per essere migliorato da chi è capace.
 
Beh, X80 e X70 storicamente escono insieme o in rapida successione, quindi se ti interessa quest'ultima, per fine giugno dovresti vederla già sul mercato, secondo le ultime indiscrezioni.

Questo è un aspetto interessante, mi ero limitato a leggere le precedenti pagine volta per volta in cui si parlava pressoché solo di x80 e avevo dedotto che uscisse prima. Non ricordo i prezzi iniziali delle 970, erano sui 350 o sui 400 euro? Se il lancio avvenisse a giugno sarebbe positivo, per settembre avremmo dei prezzi più o meno stabili, probabilmente l'offerta migliore si strapperà comunque in là nel tempo, al black friday o eventuali gaming week, ma staremo a vedere, il mio interesse è il rapporto qualità prezzo, in base a quel fattore mi orienterò sulla scheda, oltre che sulle recensioni e le informazioni a riguardo che potrò trarre.
 
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top