AMD Phenom II X6 - Topic Ufficiale

Pubblicità
Ma poi perché il modello da 95W ha una temperatura massima più alta?
Bella domanda..
A quanto c'è stato spiegato a lezione, alla fine quando si ritrovano con l'hardware alla mano da testare, prendono uno stock, lo mandano a regime per svariati periodi e di tutti i processori funzionanti testati prendono in esame quelli che sono andati peggio. La referenza nelle specifiche tecniche di funzionamento sarà una ulteriore sottostima di questi, il tutto al solo scopo di "pararsi il culo" legalmente.

Fino a qualche mese fa ero convinto che svolgessero chissà quale calcolo ingegneristico sulla termodinamica :asd: Poi cominci per studio/lavoro ad entrare in contatto col mondo della produzione industriale di chip e scopri questi altarini che ti cambiano completamente la visione dell'ambiente...
Devo ancora riprendermi dalla formalizzazione della personale scoperta che non esiste HW non difettoso :look:
 
Bella domanda..
A quanto c'è stato spiegato a lezione, alla fine quando si ritrovano con l'hardware alla mano da testare, prendono uno stock, lo mandano a regime per svariati periodi e di tutti i processori funzionanti testati prendono in esame quelli che sono andati peggio. La referenza nelle specifiche tecniche di funzionamento sarà una ulteriore sottostima di questi, il tutto al solo scopo di "pararsi il culo" legalmente.

Fino a qualche mese fa ero convinto che svolgessero chissà quale calcolo ingegneristico sulla termodinamica :asd: Poi cominci per studio/lavoro ad entrare in contatto col mondo della produzione industriale di chip e scopri questi altarini che ti cambiano completamente la visione dell'ambiente...
Devo ancora riprendermi dalla formalizzazione della personale scoperta che non esiste HW non difettoso :look:
Ma che vuol dire non esiste HW non difettoso?:boh:
 
penso che si riferisca al fatto
che ogni processore è uno scarto del top di gamma della propria architettura
 
No, se leggi bene lui ha detto non esiste HW non difettoso.. Ergo doppia negazione = tutto l'HW è difettoso..:sisi:
Bravo :P hai centrato!
Ebbene si ragazzi. Tutto l'hardware prodotto presenta un difetto dovuto al meccanismo di produzione. Ed un processo produttivo più piccolo introduce una maggiore probabilità d'errore in fase di produzione!
Il discorso del processore fortunato a che pensate che sia dovuto? :D

Purtroppo il problema dell'hardware è e rimane la sua naturale inaffidabilità.
I progettisti lo sanno bene: di tutte le fasi quella che risucchia l'80% delle risorse economiche e di sviluppo è la fase di TESTING. (sia prima che dopo la sintesi logica, ovvero la realizzazione concreta)

Può capitarti l'hardware dai condensatori che oltre il k-esimo ciclo di carica/scarica smettono di rispondere come si deve. Può capitarti quello che dopo k volte che supera una certa temperatura (magari ancora considerata di lavoro) per ragioni di dilatazione termica perde dei contatti o realizza dei corti. Può capitare di tutto, e non esiste hardware sicuramente affidabile, proprio perché per individuare l'hardware difettoso occorre analizzare fino a k+1 cicli di funzionamento, con k ignoto. E tutto ciò, se verrà risolto, per riduzione risolve anche l'halting problem, mandando a banane tutta la teoria della computabilità :D
Tutto quello che può essere fatto nella fase di testing è assicurarsi che gruppi di unità funzionino prelevandone una determinata percentuale e stressandoli fino alla fine! Poi per le proprietà intrinseche della probabilità si ritiene che tutti funzionino in egual maniera :D
Che gli costa testarli tutti? Beh, visto che l'hardware si basa comunque su principi di chimica e meccanica (ed in queste 2 categorie scorporo ed includo termodinamica ed elettronica) è soggetto ad usura: fornire quindi hardware usurato aumenta le probabilità di guasti in fase d'utilizzo post vendita.
Infine c'è da segnalare che per testare che input ed output di un processore a 4GHz siano coerenti è necessario avere un processore che sia immensamente più veloce di loro a coordinare i test (se ben ricordo c'era un rapporto medio indicativo di 10:1 in qualche libro). Questi macchinari inutile a dire che costano, e hanno anche una sigla abbstanza buffa che ora mi sfugge.. mi sembra di ricordare ATE (Advanced Testing Environment) ma potrei sbagliarmi... se mi torna in mente ve la riporto :D
Infine vige il concetto di fondo che un test globale di tutti i dispositivi realizzati, supera di gran lunga il costo di spedire HW difettato, garantirlo e gestire una certa percentuale di RMA (e magari vi siete così spiegati pure perchè alcuni telefoni arrivano con lo schermo sfasciato pur avendo superato "la fase di test" pre-imballaggio :P)
Ora mi butto a letto valà... Notte a tutti! :P
 
Ultima modifica:
Bravo :P hai centrato!
Ebbene si ragazzi. Tutto l'hardware prodotto presenta un difetto dovuto al meccanismo di produzione. Ed un processo produttivo più piccolo introduce una maggiore probabilità d'errore in fase di produzione!
Il discorso del processore fortunato a che pensate che sia dovuto? :D

Purtroppo il problema dell'hardware è e rimane la sua naturale inaffidabilità.
I progettisti lo sanno bene: di tutte le fasi quella che risucchia l'80% delle risorse economiche e di sviluppo è la fase di TESTING. (sia prima che dopo la sintesi logica, ovvero la realizzazione concreta)

Può capitarti l'hardware dai condensatori che oltre il k-esimo ciclo di carica/scarica smettono di rispondere come si deve. Può capitarti quello che dopo k volte che supera una certa temperatura (magari ancora considerata di lavoro) per ragioni di dilatazione termica perde dei contatti o realizza dei corti. Può capitare di tutto, e non esiste hardware sicuramente affidabile, proprio perché per individuare l'hardware difettoso occorre analizzare fino a k+1 cicli di funzionamento, con k ignoto. E tutto ciò, se verrà risolto, per riduzione risolve anche l'halting problem, mandando a banane tutta la teoria della computabilità :D
Tutto quello che può essere fatto nella fase di testing è assicurarsi che gruppi di unità funzionino prelevandone una determinata percentuale e stressandoli fino alla fine! Poi per le proprietà intrinseche della probabilità si ritiene che tutti funzionino in egual maniera :D
Che gli costa testarli tutti? Beh, visto che l'hardware si basa comunque su principi di chimica e meccanica (ed in queste 2 categorie scorporo ed includo termodinamica ed elettronica) è soggetto ad usura: fornire quindi hardware usurato aumenta le probabilità di guasti in fase d'utilizzo post vendita.
Infine c'è da segnalare che per testare che input ed output di un processore a 4GHz siano coerenti è necessario avere un processore che sia immensamente più veloce di loro a coordinare i test (se ben ricordo c'era un rapporto medio indicativo di 10:1 in qualche libro). Questi macchinari inutile a dire che costano, e hanno anche una sigla abbstanza buffa che ora mi sfugge.. mi sembra di ricordare ATE (Advanced Testing Environment) ma potrei sbagliarmi... se mi torna in mente ve la riporto :D
Infine vige il concetto di fondo che un test globale di tutti i dispositivi realizzati, supera di gran lunga il costo di spedire HW difettato, garantirlo e gestire una certa percentuale di RMA (e magari vi siete così spiegati pure perchè alcuni telefoni arrivano con lo schermo sfasciato pur avendo superato "la fase di test" pre-imballaggio :P)
Ora mi butto a letto valà... Notte a tutti! :P
Delucidante direi..:asd:
 
comunque ragazzi io per i 4.0 ghz rock solid devo tenere 1,4v di v-core ed un 125w secondo me dipende da molti fattori mb,ali,ram e soprattutto cpu fortunate
 
io invece non riesco a capire perke il mio procio con il c&q attivato il v-core non scende sotto gli 1.17v sto parlandi di default non di overclock, mentre vedo gente ke scrive che il loro v-core scende addirittura a 0.960 come mai ho questo problema se problema e? qualcun altro ha la stassa mia mb per confrontare i v a default in idle? grazie a tutti per le eventuali risposte
 
Pubblicità
Pubblicità
Indietro
Top