ste-87
Utente Èlite
- Messaggi
- 4,566
- Reazioni
- 1,368
- Punteggio
- 143
Era osceno come prezzo e lo è ancora di più oggi... ovviamente IMHO.
Non lo so, ste, forse hai ragione, forse no...
Come sempre tutto sta nel capire cosa hanno tagliato. Il numero dei transistor è del tutto indicativo perché potrebbero fare anche un chip con 10b di transistor e 30 SMM ma se poi ne abilitano solo la metà allora la metà dei transistor è come non averli, non ti pare? Il GK110 aveva 7,08b transistor ma solo Titan Black, Tesla K40 e Quadro K6000 usano una variante di quel chip con tutte le risorse abilitate ed al massimo delle potenzialità.
Altrettanto ovviamente sul GK110 ci sono molte risorse che per il gaming sono così utili che, se anche non ci fossero, non si vedrebbe alcuna differenza (tranne che nei consumi). Infatti, il GK110 della 780 e della 780ti ha tutte le risorse sul chip ma il clock delle unità FP64 - che nel conto dei CC cmq rientrano - è stato abbassato.
Quindi poiché nVidia già dalle GTX 600 ha dimostrato di voler scindere categoricamente VGA consumer e VGA professionali, perché non potrebbe aver semplicemente tolto un sacco di CC inutili per il gaming? Mi lancio in un'ipotesi funambolica :sisi:
Ipotizziamo che il GK110 avesse un 75% di core utili per il gaming e un 25% per altre cose (ipotesi plausibile se si pensa che il GK110 della Titan ha un rapporto di prestazioni FP32/FP64 di 3 a 1). Se così fosse, dei 2880 CC in realtà quelli realmente utili per il gaming sarebbero solamente 2160 mentre 720 se ne starebbero lì a ciucciare corrente per nulla.
A nVidia basterebbe aumentare la percentuale dei core utili per il gaming a discapito di quelli inutili per ottenere ben tre risultati:
1) un chip più semplice (meno transistor) e più piccolo da produrre (quindi meno costoso);
2) una maggior incidenza di CC utili
3) meno CC inutili - magari underclockati - che non assorbono elettricità inutilmente.
Ad esempio, se avessero portato l'incidenza da 75/25 a 87,5/12,5, il GM204-400 potrebbe avere ben 1792 CC utili a cui basterebbe un boost di performance del 20% fra "IPC" e frequenza per pareggiare i risultati dei 2160 CC "utili" del GK110.
E' un'ipotesi funambolica... però sono curioso di vedere cosa ci sarà dentro quel chip :D
Come avevo già premesso però ogni mio ragionamento verte esclusivamente sul lato gaming, sinceramente la politica di nvidia di castrare lato driver certe schede per favorire la serie profesional, anche se è la stessa identica scheda, la capisco e personalmente non mi tange minimamente :P a differenza tua purtroppo (hai tutta la mia comprensione :birra:)
quello che sostenevo è che se già a 28nm sono stati in grado di raggiungere con un chip"one" tutto sommato di dimensioni "oneste" mantenendo:
.consumi in linea
.nessun problema con le temperature degno di nota
con quei numeri di componenti fisicamente montati sulla scheda, non gli ci vuole assolutamente niente ad avere già in mano un altro esemplare che ha qualcosa come 2500 o poco + di cc su architettura maxwell già pronta, ma del quale non ha deciso di far trapelare ancora nulla per favorire da prima i due prodotti che si appresta a lanciare.
Che io sappia, i 2880 cuda cores dovrebbero lavorare tranquillamente tutti in fase gaming, e solo in fase di calcolo a doppia precisione, tramite driver subire un forte taglio (c'è anche chi sosteneva che ciò fosse aggirabile alla sua uscita nel giro di poche settimane dal debutto della 780Ti ma non interessandomi l'argomento non ho seguito)
Tutto ciò mi sembra una cosa anche abbastanza plausibile o meglio, più plausibile e logico, che infilare su una gtx 780Ti chiaramente votata al gaming e per il quale si sà che è castrata via driver nell'ambito professional, ugualmente il chip full delle Tesla con 2880 cuda cores per poi tenerne disabilitati alcuni anche nel lato gaming come sostieni tu se non ho capito male, no? :grat:
Ultima modifica: