SSD affidabilità e... qualche novità?

Liupen

SSD MAN
Utente Èlite
11,482
5,730
Durante la Conferenza di Santa Clara c'è stata una interessante divulgazione su uno studio dell'Università di Toronto che ha preso 10 modelli di SSD differenti tra quelli prodotti con tecnologia SLC e MLC, e stressati intensamente dal 2009 ad oggi.

L'affidabilitÃ* degli SSD secondo l'esperienza di Google - Tom's Hardware

Gli SSD sono stati utilizzati da Google (un campione rilevante di SSD) come drive di alcuni suoi server (il documento integrale dello studio deve ancora uscire) quindi in maniera intensiva e per un arco temporale tale da poter dare un quadro effettivo sull'uso reale e non solo real-simulato.


Ora, non è per smorzare l'entusiasmo della notizia ripresa da molti, ma mi manca una vera rivelazione capace di rimettere l'SSD sotto una prospettiva diversa e che ci riguardi (noi utenti consumer) da vicino.


Il presupposto, per esempio, è un po distante, perchè sei anni fà ovviamente non erano ancora diffusi gli ssd con celle TLC, ne i 3D/V-NAND, ne le ottimizzazioni che oggi conosciamo, una fra tutte i nuovi algoritmi LDPC al posto dei comuni BCH per la correzione degli errori di lettura (ECC).


Noi comunque ci eravamo fermati a:


1) Non considerare gli SSD come la soluzione per lo storage dei dati sul lungo termine.

Spiegazione: lo studio sulla retention dell'organo JEDEC (2010) - anche se fatto passare per la novità 2015 - rivela che le celle NAND sono soggette a degrado del segnale e che un ssd pieno (controller privato della possibilità di eseguire gli algoritmi di Garbage Collection), ha un autonomia di conservazione dei dati garantita di 12 mesi da cui si trae come conclusione che un ssd, staccato dall'alimentazione (no GC), manterrà pochi anni i dati prima di vederli degradati e non più correggibili (ECC).


2) Attrezzarsi con soluzioni efficaci per il backup dei dati e controllare periodicamente lo stato dei parametri SMART.

Spiegazione: un SSD codifica internamente i flussi, quindi in caso di rottura, l'estrapolazione dei dati utente con le "normali" tecniche software, è molto difficoltosa/incerta, mentre l'analisi hardware presuppone lo smontaggio e la lettura dei chip-NAND con un investimento che rende assai costoso il processo.
Inoltre cosa più importante, l'SSD tende a rompersi improvvisamente (perchè è più facile che ceda un componente dell'alimentazione o del controller/DRAM piuttosto che un chip per volta) e non da segni di avvertimento (come con gli hdd che - genericamente - causano freeze, bluscreen, ecc)


3) Massimo risultato e minima spesa ovvero SSD+HDD

Spiegazione: il costo per GB ancora alto da una parte e il vantaggio prestazionale dato solo dalla presenza del sistema operativo su ssd, fanno si che l'accoppiata medio/piccolo SSD + grande HDD per storage, sia per ora il compromesso ottimale per le migliori performance. Inoltre il problema della conservazione dei dati sul tempo medio/lungo, rendono obbligatorio l'uso di HDD di supporto/backup.



Ma ecco che arrivano delle nuove conclusioni dalla Conferenza Speed'16


Innanzi tutto una premessa: il centro del discorso è l' "affidabilità" cioè capire cosa rende più o meno affidabile un SSD per un datacenter. L'idea è che un SSD è inaffidabile perchè perde i dati (illeggibilità) è perchè si rompe (celle ritirate o circuiti andati).

Con questa introduzione ecco che viene detto:


1) le unità con celle SLC non sono più affidabili di quelli con celle MLC.


Il punto mette in relazione vecchi e costosi SSD con celle SLC con SSD MLC, certamente più recenti.
Nella relazione si dice che quelli SLC sono più costosi perchè dotati di Over Provvisioning maggiore, ma mi sembra normale visto che le celle SLC contengono la metà dei dati di una cella MLC... insomma è come dire che uno scooter dura quanto un auto, pur costando molto meno, ignorando il fatto che per costruire un auto servono più pezzi e, soprattutto non dando peso alle prestazioni.... mah!

Seconda conclusione, cui si vuole dare risalto in questo studio universitario, è che il tasso di errore (Bit Error Rate) è dovuto all'invecchiamento dell'SSD e non al fallimento delle celle; da questo, lo studio, ne trae come conclusione che:


2) il maggiore Over Provvisioning utente, per prolungare la vita degli SSD, è inutile.


Anche su questo punto non mi trovo completamente daccordo, visto che l'OP serve anche al controller per migliorare le azioni di "parcheggio" dei dati e di Garbage Collection. Insomma il fatto che SSD SLC e MLC abbiano un tasso di crescita degli errori con il passare del tempo, significa necessariamente che l'OP è inutile? A me non sembra proprio...

3) il tasso di errore (Bit Error Rate) - inteso come fallimenti di lettura sul totale letti - degli SSD è più alto che negli HDD.


4) gli SSD non durano più degli HDD


Due aspetti da cui lo Studio universitario trae la conclusione che per gli SSD il parametro BER è meno importante che per gli HDD, e che quindi, non è un parametro indice di affidabilità, dunque, un SSD tende a rompersi senza parametri interpretabili.. insomma degli SSD è meglio non fidarsi, cioè occorre backuppare.
Gira e rigggira (ben tre g), però non è una novità.. infatti lo sapevamo già!


Altri risultati del monitoraggio degli SSD di Google, mettono in luce che:



5) Il parametro Raw Bit Error Rate (RBER) dichiarato nelle specifiche dai vari costruttori, globalmente cresce con un ritmo inferiore rispetto a quanto ritenuto via a via che l'unità SSD viene usata nel corso del tempo. Inoltre RBER non appare legato ad altri parametri.

6) i blocchi danneggiati negli SSD nuovi sono comuni.

7) più blocchi danneggiati determinano più frequentemente la perdita dell'intero chip.

8) prima di rompersi il 30-80% degli SSD ha almeno un blocco danneggiato, il 2-7% si rompe entro i primi 4 anni a causa di un circuito integrato che cede.


In attesa del documento ufficiale per un ulteriore approfondimento passo e chiudo.
 
Ultima modifica:

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili