Aspettando Nvidia Pascal

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
Io vedo un incremento del +30% secco..
Io del (100%-84%)/84% = 19%

perfrel.gif

e poco più nel solo FHD
 
Io del (100%-84%)/84% = 19%

perfrel.gif

e poco più nel solo FHD
giustissimo dipende solo da dove si guarda..
ad esempio a fine 2013 (lancio di gtx 780ti) io vedo un incremento del 33,33%, quindi non bisogna solo focalizzarsi sulle performance al lancio, ma tenere conto che un arch. potrebbe maturare e con giochi sempre più propensi alle nuove schede i gap potrebbero aumentare..
perfrel.gif
 
giustissimo dipende solo da dove si guarda..
ad esempio a fine 2013 (lancio di gtx 780ti) io vedo un incremento del 33,33%, quindi non bisogna solo focalizzarsi sulle performance al lancio, ma tenere conto che un arch. potrebbe maturare e con giochi sempre più propensi alle nuove schede i gap potrebbero aumentare..
perfrel.gif
Amor mio bello :D , ma queste cose le valuti al lancio perché da lì in poi i vecchi modelli sono proprio fuori produzione...
Che poi i nuovi modelli abbiano un incremento di prestazioni non ci piove ma fare questa valutazione ad anni di distanza ha ben poco senso.

Aggiungo un'altra cosa: nel tempo il gap può aumentare o diminuire anche per precise scelte dell'azienda su quanto investire nei driver per vecchie VGA. Vedi, ad esempio, la differenza fra una 680 che è stata quasi dimenticata nonostante il rebrand in 770 mentre una 7970 è ancora viva e vegeta.

Morale: se queste valutazioni si fanno a distanza di tempo, i risultati possono essere molto diversi ma non necessariamente per la VGA o la GPU in sé (IMHO)
 
Ultima modifica:
Amor mio bello :D , ma queste cose le valuti al lancio perché da lì in poi i vecchi modelli sono proprio fuori produzione...
Che poi i nuovi modelli abbiano un incremento di prestazioni non ci piove ma fare questa valutazione ad anni di distanza ha ben poco senso.
A voglia che si valutano.. chi se lo perde lo spasso di dire che nvidia castra le gpu via driver?
È proprio quello il bello come diamo da mangiare ai fanboy rossi altrimenti?

Comunque tom's fa segnare un +30% in fhd su 6 giochi, tpu un +20% con una suite più complete, facciamo 25% e non se ne parla più
Comunque mi sembra di essere tornato nel lontano 2012,
Benvenuto kepler

Sapevo che prima o poi qualcuno avrebbe tirato fuori che le hd7950/7970 e le r9 280/280x sono ad oggi sopra le equivalenti 670/680..
Ormai si parla solo di questo.. LOL

PS si scherza eh, sono ironico ovviamente:D
Inviato dal mio SM-G920F utilizzando Tapatalk
 
Ultima modifica da un moderatore:
A voglia che si valutano.. chi se lo perde lo spasso di dire che nvidia castra le gpu via driver?
È proprio quello il bello come diamo da mangiare ai fanboy rossi

Comunque tom's fa segnare un +30% in fhd su 6 giochi, tpu un +20% con una suite più complete, facciamo 25% e non se ne parla più
Non mettermi sulle dita parole che non ho scritto ;) perché che le castri è una fantozziana cag.ata pazzesca mentre invece temo che sia l'effetto indesiderato della grande ottimizzazione dei driver che fanno :sisi:
Vedo di spiegarmi meglio: con le DX11 (ma anche con le DX10) il lavoro lato driver di nVidia è sempre stato al top tanto che hanno molto meno overhead sulla CPU segno che sono necessarie meno draw call. Questo lavoro di ottimizzazione è impressionante ma richiede anche molte risorse, soprattutto economiche, che ha ben poco senso impiegare su prodotti "vecchi".
Quindi, più semplicemente, riservano il lavoro di fino, quello molto costoso, alle linee nuove mentre per quelle precedenti si limitano ad un lavoro meno corposo (e costoso) il che, da un punto di vista economico e di gestione aziendale, ha perfettamente senso.

AMD, invece, ha fatto tanti rebrand ma i chip sono rimasti uguali o molto simili (vedi 7970 e 380X). Quindi il dispendio economico necessario per fare driver ottimizzati per una 7970 era molto contenuto.

Se, poi, qualcuno ha percepito una castrazione via software, bè, posso solo immaginare che ragionamenti simili richiedano competenze che non tutti hanno nel loro bagaglio...

Visto che con l'implementazione delle DX12 nei giochi cambia tutto, sarà interessante vedere che ruolo avranno i driver e, soprattutto, se il lavoro di ottimizzazione nel medio periodo porterà ancora incrementi sostanziosi nei mesi oppure no.
 
Non mettermi sulle dita parole che non ho scritto ;) perché che le castri è una fantozziana cag.ata pazzesca mentre invece temo che sia l'effetto indesiderato della grande ottimizzazione dei driver che fanno :sisi:
Vedo di spiegarmi meglio: con le DX11 (ma anche con le DX10) il lavoro lato driver di nVidia è sempre stato al top tanto che hanno molto meno overhead sulla CPU segno che sono necessarie meno draw call. Questo lavoro di ottimizzazione è impressionante ma richiede anche molte risorse, soprattutto economiche, che ha ben poco senso impiegare su prodotti "vecchi".
Quindi, più semplicemente, riservano il lavoro di fino, quello molto costoso, alle linee nuove mentre per quelle precedenti si limitano ad un lavoro meno corposo (e costoso) il che, da un punto di vista economico e di gestione aziendale, ha perfettamente senso.

AMD, invece, ha fatto tanti rebrand ma i chip sono rimasti uguali o molto simili (vedi 7970 e 380X). Quindi il dispendio economico necessario per fare driver ottimizzati per una 7970 era molto contenuto.

Se, poi, qualcuno ha percepito una castrazione via software, bè, posso solo immaginare che ragionamenti simili richiedano competenze che non tutti hanno nel loro bagaglio...

Visto che con l'implementazione delle DX12 nei giochi cambia tutto, sarà interessante vedere che ruolo avranno i driver e, soprattutto, se il lavoro di ottimizzazione nel medio periodo porterà ancora incrementi sostanziosi nei mesi oppure no.

completamente d'accordo :sisi:
del resto basta guardare questo video al minuto 7:50 per notare ciò che dici
[video=youtube_share;frNjT5R5XI4]https://youtu.be/frNjT5R5XI4?t=471[/video]
 
Non mettermi sulle dita parole che non ho scritto ;) perché che le castri è una fantozziana cag.ata pazzesca mentre invece temo che sia l'effetto indesiderato della grande ottimizzazione dei driver che fanno :sisi:
Vedo di spiegarmi meglio: con le DX11 (ma anche con le DX10) il lavoro lato driver di nVidia è sempre stato al top tanto che hanno molto meno overhead sulla CPU segno che sono necessarie meno draw call. Questo lavoro di ottimizzazione è impressionante ma richiede anche molte risorse, soprattutto economiche, che ha ben poco senso impiegare su prodotti "vecchi".
Quindi, più semplicemente, riservano il lavoro di fino, quello molto costoso, alle linee nuove mentre per quelle precedenti si limitano ad un lavoro meno corposo (e costoso) il che, da un punto di vista economico e di gestione aziendale, ha perfettamente senso.

AMD, invece, ha fatto tanti rebrand ma i chip sono rimasti uguali o molto simili (vedi 7970 e 380X). Quindi il dispendio economico necessario per fare driver ottimizzati per una 7970 era molto contenuto.

Se, poi, qualcuno ha percepito una castrazione via software, bè, posso solo immaginare che ragionamenti simili richiedano competenze che non tutti hanno nel loro bagaglio...

Visto che con l'implementazione delle DX12 nei giochi cambia tutto, sarà interessante vedere che ruolo avranno i driver e, soprattutto, se il lavoro di ottimizzazione nel medio periodo porterà ancora incrementi sostanziosi nei mesi oppure no.
Si ma guarda che non lo devi dire a me, se cerchi sul forum questo discorso l'ho fatto più volte e i testimoni (se ben ricordano) ci sono.
io non ho mai detto che le castri, ne ho accusato te.. non era di certo rivolto a te!!!
semplicemente si tratta di rendere compatibili le precedenti schede con i nuovi driver, appositamente creati per sfruttare al massimo le nuove gpu..
 
Ultima modifica da un moderatore:
Un tempo si diceva che le nuove architetture GPU Nvidia avrebbero potuto integrare Denver proprio per auto ottimizzare il codice. ;)
 
Si ma guarda che non lo devi dire a me, se cerchi sul forum questo discorso l'ho fatto più volte e i testimoni (se ben ricordano) ci sono.
io non ho mai detto che le castri, ne ho accusato te.. non era di certo rivolto a te!!!
semplicemente si tratta di rendere compatibili le precedenti schede con i nuovi driver, appositamente creati per sfruttare al massimo le nuove gpu..
Ok ma se lo dici rispondendo a me, posso solo pensare che sempre a me tu ti stia rivolgendo :D


Un tempo si diceva che le nuove architetture GPU Nvidia avrebbero potuto integrare Denver proprio per auto ottimizzare il codice. ;)
Mi ricordo qualcosa... dici che lo faranno con Pascal?
 
eccomi qua come testimone :)
e si, le sta castrando, i numeri non mentono.

ottimizzare per maxwell non vuol dire che le kepler facciano meno numeri di prima.

o mentire sul supporto di fermi :asd:

chiudiamo l'OT che è meglio ;)
 
Scusa ma se tagli i core FP64 che in gaming servono come una scatola di goldoni a @Chiccolino è facile fare +40% perché gran parte dei core tagliati non servivano a nulla (sempre per il gaming) :sisi:

Dalle tue parti vendono roba davvero buona :sisi:

Seriamente, un salto prestazionale del 40% delle performance per core non si è mai visto con nessuna generazione da che io abbia memoria... naaa... diciamo un +15/20% di perfomance (intese come FPS per core) con un decremento dei consumi forse più significativo :sisi:

Lord, premesso che per me questi confronti lasciano sempre un po' il tempo che trovano, perchè le perfomance in gaming sono ben lontane dal dipendere solo dagli shaders, che ci possa essere un grande incremento di performance computazionali in relazione al numero di shaders non è una cosa che pensa solo Solid...

Osservando l'architettura si nota che è una radicalizzazione del concetto già alla base di Maxwell, cioè far lavorare il meglio possibile i core disponibili minimizzando tutti i possibili colli di bottiglia causati da ciò che sta intorno. In particolare con Pascal hanno aumentato ulteriormente la dimensione di cache e file di registro in relazione al numero di cuda disponibili, lasciandoli disposti in modo simile a Maxwell: forse non si arriverà all'aumento di efficienza degli stessi che si è verificato con le Maxwell, ma non credo che saremo lontani. E Maxwell da questo punto di vista è stato davvero un passo avanti, visto che una GTX980 va più di una GTX780ti in gaming seppur quest'ultima abbia il 40% di core FP32 in più (pur tenendo conto delle altre differenze a livello di frequenza, backend e bandwidth).

Precisiamo: la conta dei core viene sempre eseguita tenendo unicamente conto delle unità FP32, le FP64 sono contate a parte. La GTX780ti ha 2880 core FP32 e 960 core FP64: la GTX980 ha 2048 core FP32 e nessun unità specifica per l'FP64 (che viene supportato usando i core FP32, da qui il rapporto 32 a 1).
Il GP100 ha 3840 cuda core e 1920 core DP: si capisce facilmente perchè è così mastodontico. :asd:


Mi ricordo qualcosa... dici che lo faranno con Pascal?

Per me no: non se ne è più parlato. Magari ancora più avanti lo faranno (Volta?).
 
Ultima modifica:
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top