AMD Radeon HD 2900 XT - discussione ufficiale

Pubblicità
il cammino per l'ottimizzazione dei titoli in dx10 è lungo, ma soprattutto non dimentichiamoci che dx10 non è sinonimo di titoli nuovi a forza. Esistono (e vanno anche più forte) le OpenGL, bisognerebbe vedere queste schede come si comportano su tutti i fronti, non solo sulle dx9-10.
Se per far girare Crysis o Call of Juarez non bastasse una x2900 o una 8800GTS, beh allora mi permetto di dire che sono programmati da capre e non che l'hardware non ce la fa.
 
Cyberbooster ha detto:
Se per far girare Crysis o Call of Juarez non bastasse una x2900 o una 8800GTS, beh allora mi permetto di dire che sono programmati da capre e non che l'hardware non ce la fa.

Straquoto!!!!
P.s ci sono comparative opengl delle 2 schede?
 
una cosa volevo chiedere...vedendo su prey una 8800gts da 640mb va meno della 8800gts da 320mb...come mai??? la 8800gts da 320mb e migliore???? a meno memoria...:boh:
 
Ci mancava la prova in CrossFire:

Radeon HD2900XT Crossfire vs Nvidia 8800 GTX e GTS SLI

I risultati chiaramente non divergono dalla prova in singola scheda.

In arrivo un quarto articolo, così, chiudiamo il cerchio.
 
Cyberbooster ha detto:
il cammino per l'ottimizzazione dei titoli in dx10 è lungo, ma soprattutto non dimentichiamoci che dx10 non è sinonimo di titoli nuovi a forza. Esistono (e vanno anche più forte) le OpenGL, bisognerebbe vedere queste schede come si comportano su tutti i fronti, non solo sulle dx9-10.
Se per far girare Crysis o Call of Juarez non bastasse una x2900 o una 8800GTS, beh allora mi permetto di dire che sono programmati da capre e non che l'hardware non ce la fa.

straquoto (soprattutto la parte evidenziata)
 
... letti i vari articoli (molto ben fatti! ... bravo Manoz!) ... che dire?... non ho più questa gran fretta di cambiare la mia fida GTS!... che tra parentesi mi sta dando molte soddisfazioni. ... per il momento me la tengo ben stretta e aspetto di vedere la HD 2900 xtx.... se le prestazioni non saranno superiori almeno di un 25-30%, allora magari prenderò in considerazione una GTX o uno sli di GTS.
 
tutpaz ha detto:
non è che magari è stata usata una 320 con frequenze di lavoro superiori?
l'ho scritto perchè facendo diverse prove con la mia scheda (gts 640) con diversi bios ufficiali xfx ho visto che (ovviamente escludendo il bios della XXX edition) ci sono almeno 3 bios diversi: rev1, rev2, e rev E. che hanno leggere differenze nelle frequenze di core e shaders.

pensavo che sarebbe sufficiente che la 320 che avete usato abbia qualche Mhz in più sugli shaders per giustificare quei punticini/FPS in più che avete riscontrato rispetto alla 640. l'unico modo per conoscere la frequenza EFFETTIVA che conosco è usare l'utility di monitoraggio di rivatuner.

cmq ho constatato io coi miei occhi che per esempio a parità di feequenza di core e memoria, un incremento nella frequenza degli shaders e sufficiente a determinare aumenti prestazionali!!! provare per credere.;)
 
Ho capito tutpaz, ma noi ci siamo fatti mandare una scheda standard, con frequenze normali e non abbiamo praticato nessun overclock :) tutto qui, altrimenti l'avremmo scritto. ;)
 
Manolo De Agostini ha detto:
Ho capito tutpaz, ma noi ci siamo fatti mandare una scheda standard, con frequenze normali e non abbiamo praticato nessun overclock :) tutto qui, altrimenti l'avremmo scritto. ;)

certo certo!:ok: ... hai ragione mi sono spiegato male: intendevo dire che sospetto che nvidia per le gts 320Mb rispetto alle gts 640Mb, abbia scelto di usare frequenze leggermente superiori per core e/o shaders(magari una manciata di Mhz) sufficienti a giustificare le prestazioni un pelino superiori che già avevo notato in diversi articoli/test/rece qualche mese fa al lancio della 320.

magari se hai ancora per le mani una delle 320 che avete usato per il test prova a leggere le frequenze effettive con riva
 
Pubblicità
Pubblicità
Indietro
Top