UFFICIALE Aspettando Nvidia Maxwell

  • Autore discussione Autore discussione Utente cancellato 159815
  • Data d'inizio Data d'inizio
Pubblicità
Stato
Discussione chiusa ad ulteriori risposte.
Devo ricordati che la Titan l'hanno buttata fuori a € 1.000,00? :asd:

Ok ma per che discorso? per il prezzo by nvidia o per le performance superiori alla 980?
Perché io la Titan manco la considero per gaming, nel senso che fa storia a sé (quella sì che IMHO la presentano prima)
 
ma chissenefrega dello SLI oh :ciaociao:
prendete un mostro di ali come ho fatto io e vivete felici per il resto dei vostri giorni :asd:

Ps. io non credo proprio che una 980Ti uscirà entro il 2014... voi credete che nvidia si dia la zappa sui piedi da sola dopo 2 mesi? sarebbe follia pura.

Il prezzo di queste 980 è 500/550€... sopra è un furto anche se nei giochi equivalesse la 780Ti

io invece scommetto che verrai smentito :utonto:

queste che hanno rilasciato sono schede sempre a 28nm ma con degli ampi margini conservativi che più palesi di così non si può.

Ricordo che nella variante che loro chiamano GTX 980 ci sono a malapena 2048 cc con 5.2b di transistor, quando su un fullchip kepler come la 780Ti (sempre a 28 nm) ci sono 2880cc con 7.08b di transistor, oltre al fatto che si nota la predisposizione già nel layout del pcb di minimo altre 2 fasi di alimentazione e "espandibilità" con i connettori e stiamo parlando sempre del modello reference che è tutto dire, dato che nei modelli custom tali aspetti non possono essere altro che migliorati ulteriormente.

A voler essere stati onesti, nvidia avrebbe dovuto chimare queste due soluzioni GTX 960 o 960Ti e GTX 970.

La 980 aspetta ancora di essere presentata :asd: ma dato che non c'è ombra di concorrenza, possono fare questo ed altro (ovvero prezzi anche più alti)
 
Ultima modifica:
io invece scommetto che verrai smentito :utonto:

queste che hanno rilasciato sono schede sempre a 28nm ma con degli ampi margini conservativi che più palesi di così non si può.

Ricordo che nella variante che loro chiamano GTX 980 ci sono a malapena 2048 cc con 5.2b di transistor, quando su un fullchip kepler come la 780Ti (sempre a 28 nm) ci sono 2880cc con 7.08b di transistor, oltre al fatto che si nota la predisposizione già nel layout del pcb di minimo altre 2 fasi di alimentazione e "espandibilità" con i connettori e stiamo parlando sempre del modello reference che è tutto dire, dato che nei modelli custom tali aspetti non possono essere altro che migliorati ulteriormente.

A voler essere stati onesti, nvidia avrebbe dovuto chimare queste due soluzioni GTX 960 o 960Ti e GTX 970, la 980 dovrebbe ancora essere realmente presentata :asd:

Guarda ho letto di gente che pensa che il chip della 980 sia full...
Ovviamente io non sono assolutamente d'accordo con loro, o si accontentano con poco oppure hanno bevuto un po' troppo :lol:
 
Non è essere frettoloso è riparare la macchina per andare al lavoro ç_ç Col cavolo che avrei venduto una 290x light per altro ottima in oc ç_ç

Ricordo ancora quando te la portai a mano :P non riuscivi ad aprire la scatola dall'emozione hehehe
Sei stato il cliente più emozionato che abbia mai avuto :P

- - - Updated - - -

Le 780 erano uscite al D1 a 650€ :lol: dopo 5 mesi costavano quanto costano ora, sostituita dalle 780 ti a 600€

Consiglio spassionato...aspettate!!!!!!!!!!!!!!!!! :D

nVidia la fa in barba a molta gente...è già la seconda volta di fila che fa così...QUESTA NON E' LA TOP di gamma....dove sta scritto scusate? Hehehe magari solo x nomenclatura alfanumerica :P
 
Ok ma per che discorso? per il prezzo by nvidia o per le performance superiori alla 980?
Perché io la Titan manco la considero per gaming, nel senso che fa storia a sé (quella sì che IMHO la presentano prima)
Era osceno come prezzo e lo è ancora di più oggi... ovviamente IMHO.


io invece scommetto che verrai smentito :utonto:

queste che hanno rilasciato sono schede sempre a 28nm ma con degli ampi margini conservativi che più palesi di così non si può.

Ricordo che nella variante che loro chiamano GTX 980 ci sono a malapena 2048 cc con 5.2b di transistor, quando su un fullchip kepler come la 780Ti (sempre a 28 nm) ci sono 2880cc con 7.08b di transistor, oltre al fatto che si nota la predisposizione già nel layout del pcb di minimo altre 2 fasi di alimentazione e "espandibilità" con i connettori e stiamo parlando sempre del modello reference che è tutto dire, dato che nei modelli custom tali aspetti non possono essere altro che migliorati ulteriormente.

A voler essere stati onesti, nvidia avrebbe dovuto chimare queste due soluzioni GTX 960 o 960Ti e GTX 970, la 980 dovrebbe ancora essere realmente presentata :asd:
Non lo so, ste, forse hai ragione, forse no...

Come sempre tutto sta nel capire cosa hanno tagliato. Il numero dei transistor è del tutto indicativo perché potrebbero fare anche un chip con 10b di transistor e 30 SMM ma se poi ne abilitano solo la metà allora la metà dei transistor è come non averli, non ti pare? Il GK110 aveva 7,08b transistor ma solo Titan Black, Tesla K40 e Quadro K6000 usano una variante di quel chip con tutte le risorse abilitate ed al massimo delle potenzialità.

Altrettanto ovviamente sul GK110 ci sono molte risorse che per il gaming sono così utili che, se anche non ci fossero, non si vedrebbe alcuna differenza (tranne che nei consumi). Infatti, il GK110 della 780 e della 780ti ha tutte le risorse sul chip ma il clock delle unità FP64 - che nel conto dei CC cmq rientrano - è stato abbassato.

Quindi poiché nVidia già dalle GTX 600 ha dimostrato di voler scindere categoricamente VGA consumer e VGA professionali, perché non potrebbe aver semplicemente tolto un sacco di CC inutili per il gaming? Mi lancio in un'ipotesi funambolica :sisi:

Ipotizziamo che il GK110 avesse un 75% di core utili per il gaming e un 25% per altre cose (ipotesi plausibile se si pensa che il GK110 della Titan ha un rapporto di prestazioni FP32/FP64 di 3 a 1). Se così fosse, dei 2880 CC in realtà quelli realmente utili per il gaming sarebbero solamente 2160 mentre 720 se ne starebbero lì a ciucciare corrente per nulla.
A nVidia basterebbe aumentare la percentuale dei core utili per il gaming a discapito di quelli inutili per ottenere ben tre risultati:
1) un chip più semplice (meno transistor) e più piccolo da produrre (quindi meno costoso);
2) una maggior incidenza di CC utili
3) meno CC inutili - magari underclockati - che non assorbono elettricità inutilmente.

Ad esempio, se avessero portato l'incidenza da 75/25 a 87,5/12,5, il GM204-400 potrebbe avere ben 1792 CC utili a cui basterebbe un boost di performance del 20% fra "IPC" e frequenza per pareggiare i risultati dei 2160 CC "utili" del GK110.

E' un'ipotesi funambolica... però sono curioso di vedere cosa ci sarà dentro quel chip :D
 
Di tutte le cose scritte e tritte e quello che ha sorpreso tutti e inutile da ripetere ma è un gran salto in avanti, anche le schede reference avranno a stock temperature ottime.

ma infatti ci sono un po' rimasto, io ho una 780ti a 1,21 1300-7600 consumo 300wt ( il tdp ufficiale di nvidia era 250 ma è molto limitativo a mio parere ), questa potrebbe davvero fare un balzone....

Meno rumore, Meno calore e stesse potenzialità :)

per quanto riguarda l'analisi @LordNight mi sembra davvero possibile, direi che finalmente si smette di pompare sulla complessità e si cerca di ottenere il massimo con l'efficienza :)
 
Era osceno come prezzo e lo è ancora di più oggi... ovviamente IMHO.



Non lo so, ste, forse hai ragione, forse no...

Come sempre tutto sta nel capire cosa hanno tagliato. Il numero dei transistor è del tutto indicativo perché potrebbero fare anche un chip con 10b di transistor e 30 SMM ma se poi ne abilitano solo la metà allora la metà dei transistor è come non averli, non ti pare? Il GK110 aveva 7,08b transistor ma solo Titan Black, Tesla K40 e Quadro K6000 usano una variante di quel chip con tutte le risorse abilitate ed al massimo delle potenzialità.

Altrettanto ovviamente sul GK110 ci sono molte risorse che per il gaming sono così utili che, se anche non ci fossero, non si vedrebbe alcuna differenza (tranne che nei consumi). Infatti, il GK110 della 780 e della 780ti ha tutte le risorse sul chip ma il clock delle unità FP64 - che nel conto dei CC cmq rientrano - è stato abbassato.

Quindi poiché nVidia già dalle GTX 600 ha dimostrato di voler scindere categoricamente VGA consumer e VGA professionali, perché non potrebbe aver semplicemente tolto un sacco di CC inutili per il gaming? Mi lancio in un'ipotesi funambolica :sisi:

Ipotizziamo che il GK110 avesse un 75% di core utili per il gaming e un 25% per altre cose (ipotesi plausibile se si pensa che il GK110 della Titan ha un rapporto di prestazioni FP32/FP64 di 3 a 1). Se così fosse, dei 2880 CC in realtà quelli realmente utili per il gaming sarebbero solamente 2160 mentre 720 se ne starebbero lì a ciucciare corrente per nulla.
A nVidia basterebbe aumentare la percentuale dei core utili per il gaming a discapito di quelli inutili per ottenere ben tre risultati:
1) un chip più semplice (meno transistor) e più piccolo da produrre (quindi meno costoso);
2) una maggior incidenza di CC utili
3) meno CC inutili - magari underclockati - che non assorbono elettricità inutilmente.

Ad esempio, se avessero portato l'incidenza da 75/25 a 87,5/12,5, il GM204-400 potrebbe avere ben 1792 CC utili a cui basterebbe un boost di performance del 20% fra "IPC" e frequenza per pareggiare i risultati dei 2160 CC "utili" del GK110.

E' un'ipotesi funambolica... però sono curioso di vedere cosa ci sarà dentro quel chip :D

Lord, se fosse così come hai detto tu allora rispetto ad AMD (che tiente tutto invariato per le prestazioni in FP32/FP64) il distacco tra le due sarebbe molto di più di quello che si vede, non credo onestamente ci sia questa possibilità di selezionare i CC per l'una o per l'altra applicazione, credo e mi informerò per mia curiosità che per gli FP64 le schede per il gaming non abbiano o via software o via hardware l'input per andare a svolgere il calcolo e basta visto che per il gaming non è indispabile.

Inoltre aggiungo che tramite hacking hardware è possibile trasformare una GTX 660 Ti o GTX 670 o GTX 680 in una K5000 pienamente funzionante con tutti i calcoli attivi.

Comunque trovo questa discussione assai utile e costruttiva per tutti.
 
Ultima modifica:
Ma il TDP non si riferisce al calore della cpu espresso in watt?Il consumo è un'altra cosa no?Come i processori.
 
ma infatti ci sono un po' rimasto, io ho una 780ti a 1,21 1300-7600 consumo 300wt ( il tdp ufficiale di nvidia era 250 ma è molto limitativo a mio parere ), questa potrebbe davvero fare un balzone....

Meno rumore, Meno calore e stesse potenzialità :)

per quanto riguarda l'analisi @LordNight mi sembra davvero possibile, direi che finalmente si smette di pompare sulla complessità e si cerca di ottenere il massimo con l'efficienza :)

TDP e consumo sono due cose diverse.

Thermal Design Power - Wikipedia

Indica l'energia, quindi calore, che il dissipatore deve smaltire

Ma il TDP non si riferisce al calore della cpu espresso in watt?Il consumo è un'altra cosa no?Come i processori.

si esatto ;)
 
Lord, se fosse così come hai detto tu allora rispetto ad AMD (che tiente tutto invariato per le prestazioni in FP32/FP64) il distacco tra le due sarebbe molto di più di quello che si vede, non credo onestamente ci sia questa possibilità di selezionare i CC per l'una o per l'altra applicazione, credo e mi informerò per mia curiosità che per gli FP64 le schede per il gaming non abbiano o via software l'input o via hardware per andare a svolgere il calcolo e basta visto che per il gaming non è indispabile.

Inoltre aggiungo che tramite hacking hardware è possibile trasformare una GTX 660 Ti o GTX 670 o GTX 680 in una K5000 pienamente funzionante con tutti i calcoli attivi.

Comunque trovo questa discussione assai utile e costruttiva per tutti.
Ok, sappi che mi sto battendo la mano sulla spalla complimentandomi con me stesso perché - e te lo posso giurare - sono arrivato a fare un parziale reverse engineering dell'architettura del GK110 senza averla mai vista prima così nel dettaglio :asd: :lol: :asd:

Ti confermo - e di seguito ti linko il documento - che il GK110 ha 1 CC FP64 ogni 3 CC FP32: Pag. 8 http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Pertanto sì, sarebbe assolutamente possibile che nVidia, al posto di limitare le prestazioni FP64 delle VGA consumer downclockando tutti i CC FP64 attivi abbia semplicemente ridotto il numero degli stessi lasciandone però invariato il clock oppure abbia fatto entrambe le cose.
Tieni conto che la GTX 750ti ha un rapporto FP32/FP64 di 32:1, quindi è possibile che sia passata dal rapporto CC FP32/CC FP64 di 3:1 del GK110 ad un rapporto 7:1, 15:1 o 31:1 (ovvero 7 CC FP32 per ogni CC FP64, etc.) magari limitando anche il clock dei CC FP64.

Io, prima, ho ipotizzato un rapporto 7:1 (1792 CC FP32 e 256 CC FP64) ma potrebbero benissimo aver optato per un rapporto 15:1 (1920 CC FP32 e 128 CC FP64), nel primo caso portando il clock delle unità FP64 ad 1/4 di quelle FP32 mentre nel secondo caso alla metà.


So che le VGA consumer possono essere hackate per diventare VGA professionali e, del resto, anni fa bastava semplicemente flashare il BIOS della rispettiva VGA professionale, ma cmq mancherebbero le RAM ECC e le altre migliorie che oggi vengono apportate a livello di chip.
 
Ok, sappi che mi sto battendo la mano sulla spalla complimentandomi con me stesso perché - e te lo posso giurare - sono arrivato a fare un parziale reverse engineering dell'architettura del GK110 senza averla mai vista prima così nel dettaglio :asd: :lol: :asd:

Ti confermo - e di seguito ti linko il documento - che il GK110 ha 1 CC FP64 ogni 3 CC FP32: Pag. 8 http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf

Pertanto sì, sarebbe assolutamente possibile che nVidia, al posto di limitare le prestazioni FP64 delle VGA consumer downclockando tutti i CC FP64 attivi abbia semplicemente ridotto il numero degli stessi lasciandone però invariato il clock oppure abbia fatto entrambe le cose.
Tieni conto che la GTX 750ti ha un rapporto FP32/FP64 di 32:1, quindi è possibile che sia passata dal rapporto CC FP32/CC FP64 di 3:1 del GK110 ad un rapporto 7:1, 15:1 o 31:1 (ovvero 7 CC FP32 per ogni CC FP64, etc.) magari limitando anche il clock dei CC FP64.

Io, prima, ho ipotizzato un rapporto 7:1 (1792 CC FP32 e 256 CC FP64) ma potrebbero benissimo aver optato per un rapporto 15:1 (1920 CC FP32 e 128 CC FP64), nel primo caso portando il clock delle unità FP64 ad 1/4 di quelle FP32 mentre nel secondo caso alla metà.


So che le VGA consumer possono essere hackate per diventare VGA professionali e, del resto, anni fa bastava semplicemente flashare il BIOS della rispettiva VGA professionale, ma cmq mancherebbero le RAM ECC e le altre migliorie che oggi vengono apportate a livello di chip.

Mi complimento con te :ok: e dire che sta sera ho visto quel pdf ma essendo in ufficio non sono sceso oltre la seconda pagina per evitare bastonate.
Credo che Nvidia rilascerà a breve lo stesso modulo per Maxwell, così ci togliamo ogni dubbio.
Tornando al discorso Hacking, quello che mi lascia perplesso è il fatto che entrambe i modelli del GK104 una volta trasfomati in K5000 lavorano nella medesima maniera, quindi non sono laser cut.... indagine in corso...
 
Stato
Discussione chiusa ad ulteriori risposte.
Pubblicità
Pubblicità
Indietro
Top