Nvidia mostra al mondo una scheda GF100 Tesla

Pubblicità
ok, chi di voi mi regala la tesla, ne accetto anche 2.

apparte gli scherzi, mi chiedo: nvidia è molto avanti rispetto a ati in ambito schede professionali.
spero che anche ati lanci una serie di schede così.

ps: se escono postate una foto con il signor shing kink pappadopulus che la ha in mano, come avete fatto con la tesla. eheheheheheheh
 
no no.. è che ai miei tempi a 12 anni giocavo al GameBoy... quello si che aveva una grafica assurda.. altro che Crysis e le Tesla
bhe , vuol dire che sono un 12cenne a cui piace molto smanettare col pc, ma qualche volta fa danni.:rolleyes:

adesso che ci penso: sono esattamente 2 anni circa che ho bruciato la mia prima scheda grafica.
in suo onore un minuto di silenzio grazie.:lol::asd:
 
bhe , vuol dire che sono un 12cenne a cui piace molto smanettare col pc, ma qualche volta fa danni.:rolleyes:

adesso che ci penso: sono esattamente 2 anni circa che ho bruciato la mia prima scheda grafica.
in suo onore un minuto di silenzio grazie.:lol::asd:
io sto da 10 anni vicino al pc mai brucito niente :oogle:

e ho 19 anni :asd:
 
bravo fall :sac: comunque raga... la cosa che manca sono i bench.. insomma tutti fanno i test con i bench e Nvidia non rilascia neanche una dimostrazione :boh: ?
 
Fall se dobbiamo parlare sinceramente sono tutti offtopic qua,si parla di una cosa che non ce ancora.Ragazzi x che non aspettate tranquilli l'uscita di queste famose nvidia e poi ne parliamo quanto sono bravi o no.Secondo me queste discussioni non hanno alcun senso visto che sono solo parole,parole,parole.Ricordo tutte le cazzate che si racontavano prima dell uscita della nuova serie5 ati:cav:
 
Fall se dobbiamo parlare sinceramente sono tutti offtopic qua,si parla di una cosa che non ce ancora.Ragazzi x che non aspettate tranquilli l'uscita di queste famose nvidia e poi ne parliamo quanto sono bravi o no.Secondo me queste discussioni non hanno alcun senso visto che sono solo parole,parole,parole.Ricordo tutte le cazzate che si racontavano prima dell uscita della nuova serie5 ati:cav:

:lol:
 
penso che qua tutti almeno una volta siano andati offtopic.
dai fall, certe volte è divertente e si si rilassa un pò.
puoi postare altre foto da tutti i lati de stà benedetta tesla
 
Visto che qui si parla di W un po' a caso, chiariamo qual'è la situazione attuale per delle top di gamma:
GeForce GTX 295 - 289W
GeForce GTX 285 - 185W
Radeon HD 4870 X2 - 282W
Radeon HD 5970 - 294W
Radeon HD 5870 - 188W

Detto questo, un 225W per una soluzione top di nVidia mi sembra fin troppo basso.. considerando sempre che nVidia ha come politica "il mio top è un solo chippone" mentre ATI ha la politica del "il mio top è l'unione di 2 chip di medie dimensioni". Detto questo quindi ragioniamo in questi termini e non paragoniamo soluzioni a singolo chip di nVidia con soluzioni a singolo chip ATI.
Ancor più in breve, le future GXT480/470 (top) dobbiamo paragonarle a delle HD5970 (top) e non a delle soluzioni singolo chip come la HD5870 (alta)

Questa la divisione "geopolitica" delle forze in campo ( :asd: ), per quel che riguarda efficienza e rapporto "energia\prestazioni" dobbiamo aspettare i bench.


CIAWA
A parte le dual gpu, che io non comprerei mai, queste schede video consumeranno sicuramente più di qualsiasi scheda video a singlo chip, il che renderà praticamente impossibile, a meno di miracoli ingegneristici, una soluzione dual gpu.
Poi mi devi spiegare perchè queste vga si dovranno scontrare per forza con la HD5970 e non con la HD5870 quando non si sanno ne prezzo ne prestazioni.

p.s.:la GTX285 sta oltre i 200W di consumo
 
p.s.:la GTX285 sta oltre i 200W di consumo
Per la tua ultima affermazione ti rispondo dicendo che i valori li ho presi tutti da wikipedia che inserisce quelli distribuiti dalle case quindi, non sono mai quelli effettivi di ambedue le aziende, ma poco ci manca.

A parte le dual gpu, che io non comprerei mai, queste schede video consumeranno sicuramente più di qualsiasi scheda video a singlo chip, il che renderà praticamente impossibile, a meno di miracoli ingegneristici, una soluzione dual gpu.
Poi mi devi spiegare perchè queste vga si dovranno scontrare per forza con la HD5970 e non con la HD5870 quando non si sanno ne prezzo ne prestazioni.
La risposta è semplice: "perché si". :asd:
Non è una questione di gusti o altro (neppure io prenderei una dual-gpu) ma è una questione di "mentalità" delle due aziende, una mentalità che le due portano avanti da alcune generazioni. Il concetto è semplice:

ATI La sua politica è quella di produrre un chip performante di dimensioni normali che vada a coprire la fascia medio-alta della sua serie. Un esempio è RV770 della HD4870. Per raggiungere prestazioni superiori per la fascia Enthusiast unisce in una sola VGA due GPU, un esempio di questa politica è la precedente VGA di fascia top di ATI, la HD4870x2.
Inutile dire che ATI può seguire questa strada perché la sua GPU di dimensioni "normali" glielo permette, oltre a questo c'è da dire che è l'unica azienda che fa uscire prima le VGA di fascia alta che quelle di fascia TOP (sempre per queste ovvie ragioni).

nVidia Ha una politica diversa a quella di ATI (oserei dire "alla russa"), lei punta sin dall'inizio a creare una singola GPU potente per la fascia TOP e questo ovviamente significa aumentar le dimensioni della suddetta, ed ecco qui che nasce il "chippone" tipicamente nVidia. Un esempio è il vecchio G80 della 8800GTX di ben 480mm.

Inutile dire che per arrivare a capire il resto basta fare 2+2, seppur il chippone nella sua versione ultima consumi molto rispetto a quello singolo di ATI è perché punta ad ottenere delle prestazioni Enthusiast senza poi dover fare un "doppio". Alla fine quindi sotto l'aspetto "consumi" e "prestazioni" la situazione si eguaglia sempre (più corretto dire "si è sempre eguagliata") perché, dove ATI arriva con due nVidia ci arriva con uno e viceversa.


Quindi alla domanda "perché le GTX480/470 nVidia dovranno scontrarsi con delle HD5970?" la risposta è semplice "perché è quella la politica delle aziende".
Lo hai detto tu stesso no, con quei consumi teorici di nVidia, è impossibile fare una versione "dual-gpu".. ed infatti loro non vogliono fare una versione "dual" con il loro "chippone" top, al massimo faranno uscire una versione "dual-chippone-medio" come fatto con alcune soluzioni GF200.

Questo è come lavorano le due, se saranno riuscite anche questa volta a percorrere correttamente la loro strada lo sapremo solo quando nVidia (finalmente) ci darà del materiale per paragonare le due nuove architetture (prezzo e prestazioni). ;)


CIAWA
 
Pubblicità
Pubblicità
Indietro
Top