Mr6600
Utente Èlite
- Messaggi
- 4,650
- Reazioni
- 164
- Punteggio
- 126
Kamicia ha detto:secondo i test oblivion dovrebbe avere pikki minimi di 30fps... cioè si sfiora il limite della giocabilità, e cmq oblivion mette in ginokkio qualsiasi architettura attualmente esistente quando ci sono molti personaggi sullo skermo, e anke con lo sli e il crossfire non si risolve, la media dei frame sale ma il picco minimo resta pressokkè invariato...
credevo ke con gli shader unificati il boost prestazionale sarebbe stato veramente pauroso, invece in termini di numeri siamo allo stesso gap prestazionale ke c'è stato tra nvidia serie 6 e serie 7...
6-7mila punti in più al 3dmark05 non ti sembrano un boost prestazionale pauroso?
cmq ripeto,fare il paragone su oblivion è sbagliato perchè per farlo girare senza scatti,con tutti i filtri attivati e al max dei dettagli non ci basterebbero due sistemi crossfire :asd:
Kamicia ha detto:resta il fatto ke se avessi 600€ ogni 6 mesi da spendere sulla vga probabilmente lo farei, ma dato ke non li ho e devo regolarmi di conseguenza non mi andrei a fare una vga dx10 ready come 8800 o r600 alla data della sua uscita, anke xkè non sappiamo minimamente come queste skede si comporteranno con le dx10, e se poi vanno una ciofeca?
non me la sento di correre il riskio, ecco xkè preferirei aspettare ke le dx10 escano x vedere come realmente queste skede si comportano, magari con gli shader 4.0 andranno pure meglio ke con gli shader 3.0 (ma non credo, sarebbe come dire ke hanno fatto un lavoro immensamente skifoso con gli shader 3.0)
è vero...chi può permetterselo cambia la GPU ogni 6 mesi...chi non può deve ripiegare su qualcosa o di più economico o su qualcosa che in quel momento è il top in modo che sia più durevole nel tempo..alla fine sono scelte dettate per lo più dal portafoglio.

