GHz delle CPU...ma quanto incidono davvero?

Pubblicità

bayard1969

Utente Attivo
Messaggi
87
Reazioni
0
Punteggio
38
Ciao a tutti, leggendo i messaggi dai tanti forum vedo quanta enfasi si mette sulla frequenza di clock delle CPU. Ma in realtà quanto conta davvero avere una frequenza di 3,5 GHz piuttosto che 1,8 a parità di processore (o anche di CPU diverse)? Io vi suggersico un test: provate a prendere una 'vecchia' CPU (tipo un P4 Northwood 1,8 GHz o addirittura uno degli ultimi modelli di P3) ed un P4 Prescott di ultima generazione (sck 775) a 3,5 GHz del quale però si siano disabilitate (via BIOS) le cache di primo e secondo livello (e anche di terzo se presenti). Dovreste notare a questo punto (facendo un uso normale del PC) che le prestazioni del Northwood e addirittura del P3 sono superiori. Questo perchè le cache sono di gran lunga più importanti della frequenza di clock della CPU. Altra cosa importantissima ma spesso sottovalutata è l'FSB. Sempre prendendo un Northwood come esempio, vedreste una maggior differenza di prestazioni fra due P4 a 2,8 GHz ma con diverso FSB che non fra un P4 ad 1,8 Ghz ed uno a 2,8 ma con medesimo FSB.
In altre parole, non che la frequenza non conti nulla....ma perchè ciò sia davvero evidente (intendo 'umanamente percettibile') dovremmo usare processi che svolgono una gran mole di calcoli, dove il poter fare 3 milioni di operazioni elementari al secondo piuttosto che 2 conti davvero. Nella stragrande maggioranza delle applicazioni d'ufficio, 'domestiche' e nella grande maggioranza dei giochi, ciò conta davvero poco....e non mi riferisco ai benchmark ma alla percezione che ne abbiamo noi. A che servirebbe avere, ad esempio, un monitor con risoluzione 'infinita' se la definizione del nostro occhio è già intrinsecamente limitata?
Facciamo un sondaggio: secondo voi (in %) in quanti casi un problema di performance può essere risolto PRINCIPALMENTE overclockando la CPU?
Inizio io: se non lavorate alla NASA....nello 0,001 % dei casi!! :D
 
Uhm...io personalmente mi accorgo se il sistema è a 1800mhz o a 2200mhz...o se le ram sono a cas 2.5 o cas 2...

Ma come tu dici...il nostro occhio,e quindi la nostra percezione,ha dei limiti...quindi anche se per calcolare una determinata variabile la cpu impiega un millesimo di secondo in meno,non è possibile riscontrare questo guadagno a occhio nudo....ma un guadagno di un millesimo è parecchio...
 
Infatti...il discorso non tiene conto della lentezza con cui comunicano i vari componenti del pc...
 
Un millesimo è parecchio però in Formula 1...ma non se stai scrivendo un documento office o se stai giocando a 'The Sims'.... ;)
 
bhè, che la cache sia importantissima è indubbio, infatti anche se disabiliti la l1, la l2 ecc nel p3 o nel p4 1.8ghz rimpiangeresti il tuo pentium 133mmx (esagero :D )
è indubbio che la maggior parte di tutta qusta potenza non viene sfruttata, come non lo era 10 anni fa con le applicazioni che c'erano al tempo, se non quando si richiedono tipi e tempi di calcoli differenti dall'uso normale quali possono essere il 3D o, al contrario di come dicevi, i giochi, dove invece la cpu dovendo calcolare i movimenti dei vari componenti va abbastanza in "crisi" con tutti i titoli

è ovvio che, come già è stato detto, l'occhio umano e l'uomo ha dei limiti ed è pressochè impossibile percepire la reale differenza che vi è fra un 3ghz o un 3.2ghz in quasi tutto.
poi si potrebbe dire che i "mhz" in senso stretto non sono la reale misura delle prestazioni, ma qui si rinizierebbe con la tiritera amd-intel, quindi...... :D
 
bayard1969 ha detto:
Un millesimo è parecchio però in Formula 1...ma non se stai scrivendo un documento office o se stai giocando a 'The Sims'.... ;)

Uhm...sai cosa è un ciclo di clock e quanti ce ne sono in un secondo?
 
bayard1969 ha detto:
Un millesimo è parecchio però in Formula 1...ma non se stai scrivendo un documento office o se stai giocando a 'The Sims'.... ;)


Bè innanzitutto il principale motivo x cui si overclocca è la soddisfazione di aver raggiunto un traguardo , almeno penso che sia così. oltretutto i miglioramenti li dà eccome !

ovviamente nn li vedi in un documento office o in the sims , ma li vedrai in half life 2 , doom3 , farcry o 3dmark :)
 
ruggero ha detto:
Uhm...sai cosa è un ciclo di clock e quanti ce ne sono in un secondo?

1 Hz= 1 ciclo al secondo...1 GHz = 1 miliardo di cicli al secondo.
Poi ogni operazione ha bisogno di un certo numero di 'colpi di clock' come da specifiche del processore che si sta utilizzando.
 
Esatto...quindi se un processore impiega un millesimo in meno(che sono moltissimi cicli di clock)in quel millesimo può calcolare altre variabili...
 
NeM3Si ha detto:
Bè innanzitutto il principale motivo x cui si overclocca è la soddisfazione di aver raggiunto un traguardo , almeno penso che sia così. oltretutto i miglioramenti li dà eccome !

ovviamente nn li vedi in un documento office o in the sims , ma li vedrai in half life 2 , doom3 , farcry o 3dmark :)

Infatti io non gioc a Doom 3 :D
a parte gli scherzi....in alcuni giochi è fuor di dubbio: cito per esempio "Cossack: European War", quando hai sul 'campo' 8000 soldati e per ciascuno occorrono calcoli specifici la potenza di calcolo si fa sentire....ciò non è vero invece (per la mia esperienza) su un gioco come "Rainbow six: raven shield" dove invece incide più che altro il chip grafico.
 
Esatto...se la cpu viene occupata al 100% i guadagni sono percettibili...in altri casi lo sono di meno...e cmq dipende dalla applicazione...
 
ruggero ha detto:
Esatto...quindi se un processore impiega un millesimo in meno(che sono moltissimi cicli di clock)in quel millesimo può calcolare altre variabili...

Certo, ma io mi riferisco sempre a tempi percettibili. Facendo un esempio banale e astratto: se lanciamo un processo che richiede 100 milioni di operazioni elementari, e settiamo la CPU prima a 1 GHz e poi a 2 GHz, è chiaro che nel secondo caso ci metterà la metà del tempo, però se andiamo a vedere in concreto questi tempi sono: 1 decimo di secondo nel primo caso,e 0,5 decimi di secondo nel secondo caso...il che significa che noi non ci accorgiamo del miglioramento. E' ovvio che se il numero di operazioni fosse 10 miliardi avremmo invece come risultati: 10 secondi e 5 secondi....e lo noteremmo.
Quindi la domanda iniziale si potrebbe cambiare con questa: esiste attualmente così tanto software di uso più o meno comune da farci vedere la differenza fra un 2 GHz ed un 2.2 GHz?
 
Pubblicità
Pubblicità
Indietro
Top