Nvidia G92 e G98

Pubblicità
mah. dateci almeno il tempo di ambientarci alla visione di una 8800 nei nostri case che già progettano tutto :D comunque c'è tempo fino a fine dell'anno che poi diventerà sicuramente gennaio-febbraio dell'anno prossimo.
 
Fantastica notizia, non tanto per il G92 in sè ma perchè questo farà abbassare più velocemente, forse, i prezzi del G80 rendedolo più accessibile a tutti.

Viva la tecnologia incalzante :asd:
 
DIDAC ha detto:
Fantastica notizia, non tanto per il G92 in sè ma perchè questo farà abbassare più velocemente, forse, i prezzi del G80 rendedolo più accessibile a tutti.

Viva la tecnologia incalzante :asd:
quotone!!!!
 
L'Nvidia corre come una matta...se continua così quando mi dovrò rifare il pc ci sarà già il G100!!!Tanto meglio:D :D
 
per confrontarla con le attuali schede dx10 di ati e nvidia bisognerebbe sapere quanto la gtx o la hd2900 sono distanti dal teraflop, così da poter "quantificare" il gap prestazionale tra G92 e le vga attuali
avete notizie in merito?
 
rob84 ha detto:
per confrontarla con le attuali schede dx10 di ati e nvidia bisognerebbe sapere quanto la gtx o la hd2900 sono distanti dal teraflop, così da poter "quantificare" il gap prestazionale tra G92 e le vga attuali
avete notizie in merito?

La 8800 arriva a circa 330 Gigaflops mentre la 2900 dovrebbe arrivare a 475 Gigaflops..:inchino:
 
non è che per caso si sono sbilanciati ed hanno indicato se, oltre ad abbassare il processo produttivo a 65nm, abbasseranno pure l' esosa richiesta di watt?

Se correranno di pari passo prestazioni e consumi tra poco dovremo x forza oltrepassare il Kilowatt... e la cosa non mi rallegra... non mi piace che dentro al case ci sia un ali che potrebbe far girare una molazza da cantiere edile...
 
comunicante ha detto:
La 8800 arriva a circa 330 Gigaflops mentre la 2900 dovrebbe arrivare a 475 Gigaflops..:inchino:

ma come è possibile che la 8800 vada a 330gflop e la 2900 a 475 ma con prestazioni inferiori?

comunque confrontando g80 con g92 il divario è enorme... ci vogliono 3 g80 per competere con g92...:shock:

leggero OT (ma è una premessa):
ho letto da qualche parte che amd per le future gpu (r700)sta pensando ad un chip multicore ,per esempio : 1 core per la fascia bassa, 2 per mainstream, 4 hig end...
con il vantaggio di dover progettare 1 solo core
esattamente come intel fa attualmente con i quadcore (2 conroe attaccati)
fine OT

sapete se nvidia seguirà questa strada con g92?
 
rob84 ha detto:
ma come è possibile che la 8800 vada a 330gflop e la 2900 a 475 ma con prestazioni inferiori?
Appunto..è quello che mi chiedo anche io!Secondo me bisogna solo aspettare che ATI migliori i suoi driver..
 
evidentemente nvidia è in grado di trasmettere la stessa informazione utilizzando meno bit.
I flops non sono molto attendibili come unità di misura se si confrontano architetture differenti (vedi cisc - risc ), siccoma la codifica dell'informazione usa strutture differenti è possibilissimo che in meno flops nvidia invii più informazioni.
 
xme le povere ati nn sono mai state sfruttate cosi velocemente come le nvidia?.... nvidia mi sa tanto di mafia ahahah..cioè xme paga le case prodruttrici x ottimizzare i giochi x loro... cioè ati ha molta tecnologia ma gli manca un aiutino... bho.. soprattutto da parte dei programmatori!nvidia puo avere skede peggiori a collaborare a braccino con gli sviluppatori molto piu di come fa ati.. NON è giusto...è un monopolio secondo me...tutti i giochi vengono prima OTTIMIZZATi sli.. poi al crossfire... CI si pensera..!ehehe ma proprio sta sulle palle alla gente il crossfire e nn ved il perche poi!...dato che funziona con gioghi vecchi...e anche x il lavoro! mentre lo sli è puramente sviluppato x i gioghi se nn hai un applicazione certificata sli.. ci fai poco nulla a parte forzare l'antialiasing.. o qlk filtro
 
realista ha detto:
xme le povere ati nn sono mai state sfruttate cosi velocemente come le nvidia?.... nvidia mi sa tanto di mafia ahahah..cioè xme paga le case prodruttrici x ottimizzare i giochi x loro... cioè ati ha molta tecnologia ma gli manca un aiutino... bho.. soprattutto da parte dei programmatori!nvidia puo avere skede peggiori a collaborare a braccino con gli sviluppatori molto piu di come fa ati.. NON è giusto...è un monopolio secondo me...tutti i giochi vengono prima OTTIMIZZATi sli.. poi al crossfire... CI si pensera..!ehehe ma proprio sta sulle palle alla gente il crossfire e nn ved il perche poi!...dato che funziona con gioghi vecchi...e anche x il lavoro! mentre lo sli è puramente sviluppato x i gioghi se nn hai un applicazione certificata sli.. ci fai poco nulla a parte forzare l'antialiasing.. o qlk filtro


infatti nvidia paga le produttrici di game per ottimizzare i giochi per se, ma non è illegale ! E' un modo per vendere e pubblicizzarsi, e poi non ci possiamo fare niente se ATI vale 5.000.000.000 $ e nvidia 25.000.000.000 $ :asd:

se c'ha i soldi falieli godere no ?:lol: E' sempre meglio stare con chi ha la grana :sisi: E poi Nvidia è sempre stata superiore ad Ati, o in prestazioni o senò in consumi, silenziosità, dissipazione e fornitura software.


Se ci rifletti un po' la ATI era superiore veramente con le serie 9800-9700e X800-X850 e basta !
La X1800 e X1900 erano in vantaggio, ma poi sempre sorpassate da nvidia prima con le 7900 e poi con 8800
 
lo squartatore ha detto:
330 Gflops ? facciamo 520 Gflops !
la HD 2900 è inferiore a tutte le nvidia
Ma da dove li hai tirati fuori 520Gflops??Guarda ke quei dati non me li sono inventati io..Non ci vuole tanto a trovarli se guardi in giro tra le news..
 
Pubblicità
Pubblicità
Indietro
Top