Hdd nuovo del 2012

Pubblicità
Chiediamo scusa a @jimmyzoe se continuiamo ad usare il suo thread.

Perchè dici che un dato è stato riallocato 19 volte ( 13h)
Si, 13 è esadecimale.

Pare che sia sul controlle Intel che sono scomparsi, su usb e su un secondo controller pci-e ritornano visibili.
Mah !
Idem... mah!!

Anche questa volta ho difficolta a capirti, però vedo che l'AI la pensa come me ( o io come l'AI )
1751101585595.webp

Eh non so per me è un concetto assodato da molti anni e semplifico o do per scontato i passaggi.
Però l'AI ti dà tutti gli elementi per, diciamo, seguire il percorso della riallocazione.. causa effetto.. e volendo conseguenze.

Cosa è:
"Il "conteggio dei settori riallocati" è un attributo SMART (Self-Monitoring, Analysis and Reporting Technology) dei dischi rigidi che indica il numero di settori identificati come guasti e sostituiti con settori di riserva dal firmware dell'unità."

Si parte dal dualismo tra LBA, cioè i settori logici (fittizi) dove Windows memorizza i dati ai settori su hdd dove i dati sono realmente memorizzati.
In mezzo c'è una tabella o mappatura tenuta su disco (in prevalenza) e che assegna ad ogni LBA un settore fisico.
Quindi una rimappatura di un LBA su un diverso settore fisico (nel caso degli hdd in una zona fisica dell'hdd specifica) viene definita riallocazione del settore. Lo SMART ne rileva il numero di eventi; il numero è adimensionale.

La cosa interessante è: cosa causa la riallocazione?
"Quando un disco rigido riscontra un errore di lettura o scrittura su un settore, tenta di rimappare quel settore in un settore di riserva sull'unità. Questo processo è chiamato "riallocazione" e il numero di settori riallocati viene registrato nell'attributo "conteggio dei settori riallocati"".

Come dice l'AI si tratta di un errore di lettura (il fatto che dica lettura e scrittura è in realtà superfluo: un settore può contenere già un dato che viene letto con difficoltà tanto che il firmware decide di spostarlo, come anche una scrittura che al controllo di ridondanza [il controllo chje la scrittura è riuscita] non restituisce il valore scritto; anche in questo caso è la difficoltà di lettura del settore che determina l'evento di riallocazione).
Posto questo approfondimento, l'evento di riallocazione determina uno spostamento su un diverso settore fisico di un LBA che ha un valore (che sia zero o uno, valido per Windows o meno).

Conseguenze o ...precognizione:
"Perché è importante?
Alcuni settori riallocati sono normali nel normale funzionamento dell'unità.
Tuttavia, un numero crescente di settori riallocati indica che l'unità sta riscontrando un numero crescente di settori guasti, il che può essere un segnale di allarme precoce di un imminente guasto dell'unità".


Spero fosse questo, quello a cui ti riferivi.
 
Ultima modifica:
Quello che non è chiaro è perchè dici " un dato è stato riallocato 19 volte" .
Io capisco, facendo un esempio banale, che scrivo per esempio A per 19 volte consecutive e alla 20 ci riesco.

.
 
Comunque ho rifatto il test al maxtor su usb fuori dal case ed è venuto fuori molto meglio, per quale motivo?
Forse la temperatura dato che il disco è all'aperto, anche se per le prime righe era abbastanza freddo anche su controller nel cassetto estraibile.


1751126653718.webp

1751126278448.webp
 
Quello che non è chiaro è perchè dici " un dato è stato riallocato 19 volte" .
Io capisco, facendo un esempio banale, che scrivo per esempio A per 19 volte consecutive e alla 20 ci riesco.

.
19 volte, una lettura difficoltosa di un dato già su disco è stata salvata o una scrittura non riuscita ha portato un* LBA a essere mappato su un altro settore fisico.

* essendo la riallocazione un "n. volte", è probabile che siano stati metadati di qlc KiB ad essere riallocati, non un singolo settore da 512 byte.
Comunque ho rifatto il test al maxtor su usb fuori dal case ed è venuto fuori molto meglio, per quale motivo?
Forse la temperatura dato che il disco è all'aperto, anche se per le prime righe era abbastanza freddo anche su controller nel cassetto estraibile.



E' possibile, certo, la temperatura potrebbe influire, ma anche il fatto che i dati letti recentemente abbiano normalizzato l'algoritmo degli errori di lettura.
Oppure è un caso... come l'esempio che ti avevo fatto sui benckmark di velocità dei dischi o ssd mai uguali.
 
Pubblicità
Pubblicità
Indietro
Top