si aumentando di una stessa frequenza la differenza si assottiglierebbe, ma poi bisognerebbe in media quanto sale una e quanto sale un'altra, mi spiego:
se la scheda da 800 MHz base con i 200 MHz di OC è spremuta al massimo mentre l'altra magari oltre i 200 MHz ne ha altri 300 da dare il discorso cambia :)
Ok tu mi pare che sei tra quelli che usano la testa.
Diciamo che questo è un metodo che tiene conto solo dei dati. ovviamente mettiamo che abbiano le stesse potenzialità di oc.
Cioè
Scheda base 800mhz + 200mhz di oc = 1000mhz 25% in più
Scheda base 1000mhz + 200mhz di oc = 1200mhz 20% in più
scheda 1 gioco x fps 50 +25% = 62,5
scheda 2 gioco y fps 53 +20% = 63,6
Naturalmente è solo un fattore di dati, perchè tutto dipende dal gioco.
Diciamo che in quelli dove scalano meglio la situazione si avvicina a quella descritta.
Quindi in questo caso la scheda che va di meno è la 2. Tenendo conto che le freq massime esistono ed è facile fare una media perchè ci sono vari dati in giro.
Il discorso che fai tu lo facevo per la 290x che avevo letto che partiva da 1000mhz
Dopo pribolo mi ha fatto notare il throttle e le frequenze operanti.
Quindi portando una 780 a 1200 va comunque meno della 290x perchè partono dalle stesse frequenze diciamo.
Cioè in termini di % in prestazioni vanno su di pari passo.
L'architettura è ininfluente. Bastano il grafico degli fps e le frequenze delle schede.