PROBLEMA Allungamento tempo spegnimento pc dopo clonazione su SSD

Pubblicità
Giulio_Splash ha detto:
ottimo, grazie per il tuo feedback :)

Prego!

Innanzitutto ho sempre trovato scritto scritture host e sono quelle che secondo me rappresentano le scritture su un SSD.
Ma se il Sandisk Extreme PRO riesce a metterci anche le scritture che fa il Garbage Collector (quelle del sistema operativo + quelle interne del controller per intenderci) è una gnignata esagerata perchè allora si tratta delle "vere" scritture sulle NAND.

Confermo che fra i parametri SMART del SanDisk Extreme II e Pro ci sono le scritture effettuate realmente sulle memorie NAND dell'SSD. Questo permette di calcolare con precisione ed in ogni momento (anche per un periodo di tempo arbitrario, facendo la differenza fra valore finale e valore iniziale) la write amplification dividendo le scritture NAND per quelle Host.

Inoltre sono anche presenti dati curiosi come il numero di cicli di scrittura scritture minimo e massimo effettuato sui blocchi di memoria presenti nell'SSD, in aggiunta a quello medio (che su altri SSD è chiamato Wear Leveling Count), cosa che fa un po' di luce sul modo in cui questi SSD si gestiscono internamente le operazioni di wear leveling.

Con questi parametri si possono monitorare nel corso del tempo come si evolve l'usura dell'SSD con più dettaglio rispetto al solito. Ad esempio io ho tracciato questo grafico del mio:

SMtR4ya.webp


Ciò che mi lascia basito è che vengano segnalati dei ehm... problemi...che, ti tranquillizzo, assolutamente sono ininfluenti e non influiscono in nessun modo sulle prestazioni.
I dati proccupanti che osservo sono l'ID 5/05 171/AB 212/D4 232/E8
C'è la possibilità che sia stato un bad block sfuggito ai controlli di fabbrica di cui l'SSD se ne è accorto quando si è andati ad utilizzarlo. Se non ne appaiono altri dopo che è stato effettuato un ammontare di scritture NAND almeno pari a quella della capienza dell'SSD, è ragionevole pensare che sia stato questo il caso e che dunque si può stare tranquilli.

Piuttosto, quel SATA PHY error sembra essere sintomo di un problema di comunicazione fra SSD e Host SATA, magari è il cavo SATA usato.
 
Ti aiuterei volentieri ma per me tutto ciò è arabo :oops:
Ho googlato un po' questo SATA PHY error ma non mi sembra di aver trovato granchè...
Però forse so la causa: ho una screen fatta all'ssd subito dopo la clonazione e l'avvio del pc col nuovo hdd, e quell'errore c'è già. Suppongo sia quindi stato causato dalla fallita clonazione che ho fatto a causa di quella leggera disconnessione della presa usb quando ce l'avevo montato come hdd esterno per la clonazione.

Considera cmq che ho altri 2 giorni per il diritto di recesso, quindi potrei restituirlo e farmene mandare uno nuovo. Sebbene poi non ci siano problemi nelle prestazioni, aver già bruciato una cella dopo pochi giorni di utilizzo non mi fa stare tranquillo :cry:
Gli altri errori che mi hai segnalato invece cosa sono?
Dici che mi conviene fare il reso di amazon?

Giusto! Dimenticavo la disconnessione accidentale....è quella...l'SSD avrà cercato di correggere (e ha registrato nel firmware la cosa).
Meglio così, anzi quando farai un secure erase penso che quel blocco torni attivo (il firmware continuerà a segnarlo sempre..).
Bene.
Per quanto riguarda le scritture ai fini della garanzia, quelle host o RAW :sisi:, vedrai che adesso che non devi più installare ..i GB/giorno scenderanno a livelli umani.

Un SSD efficiente è un SSD in cui le scritture host hanno un rapporto vicino a 1 max 2 rispetto a quelle complessive.

Facendo delle elucubrazioni scolte...Calcolo approssimativo della durata di un SSD
Write Amplification:
(Wear Leveling Count [RAW] x Memoria NAND Flash installata / Total LBA Written=
(2 x 480.1) / 635 = 1,5
A questo punto il calcolo diventa anche più preciso: 718/631 = 1,1 ;)


- - - Updated - - -
@s12a ...ti do un grande benvenuto!! :bevuta: :party:
 
Un SSD efficiente è un SSD in cui le scritture host hanno un rapporto vicino a 1 max 2 rispetto a quelle complessive.

A dire il vero... dipende dall'SSD.

Rapporti così bassi li hanno ad esempio i Samsung 840 con memorie TLC, che sembrano essere abbastanza conservativi riguardo il wear leveling. In certi casi, grazie probabilmente al buffer Turbowrite, gli 840 EVO riescono a scendere anche sotto 1.0x (per il fatto che i dati che si vanno a scrivere possono venire cancellati mentre risiedono nel buffer SLC, prima di giungere nella parte TLC). Dai un'occhiata a tal riguardo a questo thread sul forum di Anandtech: Request for Samsung 840 EVO SSD owners (write amplification calculation). - AnandTech Forums

I SanDisk Ultra II (dotati di memoria TLC e buffer SLC ) funzionano similmente ed a detta della casa madre sembra possano arrivare ad una write amplification di 0.8x con workload tipici e questo senza compressione dei dati.

Gli SSD dotati di memoria MLC hanno in genere una write amplification più elevata per quanto ho avuto modo di vedere.

In particolare, nel mio caso con il SanDisk Extreme II grazie al fatto di poter calcolare la write amplification in ogni momento, ho avuto modo di constatare che è molto variabile a seconda degli usi. Di norma si aggira attorno a 3-3.5x, ma può scendere fino a poco più 1.0x durante operazioni di scrittura sequenziale continuate. In certi casi (durante un defrag eseguito per prova) l'ho vista scendere anche a meno di 1.0x ed effettivamente anche questo SSD è dotato di buffer SLC, anche se probabilmente è orientato più per le prestazioni che per la durata.

Questi sono parte dei dati d'uso del mio SSD. La prima colonna colorata è la write amplification cumulativa, la seconda quella calcolata rilevazione per rilevazione.

lGbfzAv.png



@s12a ...ti do un grande benvenuto!! :bevuta: :party:
Grazie anche a te!
 
Secondo me no od almeno io non lo farei, a meno che non continuino ad aumentare in maniera costante i blocchi difettosi, indice di possibili problemi più serii.

Rivedendo lo screenshot che avevi postato in precedenza, hai già effettuato un numero di scritture NAND superiore alla capienza del drive, e l'indicatore del numero di scritture minimo effettuato su tutte le celle è già scattato ad 1, dunque l'SSD deve essersi già passato in rassegna tutte le celle di memoria e contrassegnato come difettosi tutti i blocchi che c'erano da contrassegnare come tali.
 
:D fantastico ...uno più fissato di me sugli ssd !!

A dire il vero... dipende dall'SSD.

Si daccordo, ogni SSD avrà i suoi modi di gestire le scritture, ma vale per tutti MLC o TLC che a minore uso delle celle corrisponde aspettativa di vita maggiore.
Poi ogni produttore è libero di creare software o strutture per ridurre la WA, conta il risultato e se, come osserva l'utente di AnandTech, il metodo della turbo write è vincente, il WL funziona alla grande...ave a Samsung!
Il principio è però quello in tutti i casi.

Spieghiamo a chi segue e ha curiosità, che il comando di scrittura dato dal sistema operativo all'SSD Samsung con Rapid Mode attiva, prevede un 1° passaggio su una porzione di DRAM predisposta a questo (con la nuova versione di Magician, questo riesce a gestire sino a 4Gb), per poi trasferire i dati in un 2° passaggio. Il sistema operativo riceve il messaggio "scrittura eseguita" alle velocità che tutti i possessoni di Samsung osservano nei bench, ma in realtà i dati vengo tasferiti, con calma (se non ci sono altri dati in coda...ovvio), e quindi il controller può... ordinarli al meglio riducendo gli spostamenti che realizza il Garbage Collection (la parte di software interno che sposta i dati: in modo che ogni cella si mantenga usata come le altre, in modo che i blocchi contengano quante più pagine valide possibili, ecc). []Samsung Semiconductors Global Site

Cattusdfa.webp

I SanDisk Ultra II (dotati di memoria TLC e buffer SLC ) funzionano similmente ed a detta della casa madre sembra possano arrivare ad una write amplification di 0.8x con workload tipici e questo senza compressione dei dati.

Il tuo modello di Sandisk dovrebbe funzionare molto similmente al modello EVO della Samsung (e Sandisk l'ha fatto prima ;) ), con una pre-scrittura, quindi in teoria dovresti avere un WA bassa. Invece se leggo bene sei complessivamente su 2,3

Sulla differenza tra MLC e TLC in relazione alla WA, lo prendo per buono, non saprei la discriminante
Penso dipenda molto, oltre che dalla gestione del controller, anche (o forse sopratutto) da come viene usato l'SSD.
Si sa che dati sequenziali e grandi, creano poca WA, mentre al contrario scritture piccole, frequenti e cancellazioni... amplificano le scritture sulle nand.
Daltra parte ne convieni anche tu:

In particolare, nel mio caso con il SanDisk Extreme II grazie al fatto di poter calcolare la write amplification in ogni momento, ho avuto modo di constatare che è molto variabile a seconda degli usi. Di norma si aggira attorno a 3-3.5x, ma può scendere fino a poco più 1.0x durante operazioni di scrittura sequenziale continuate. In certi casi (durante un defrag eseguito per prova) l'ho vista scendere anche a meno di 1.0x ed effettivamente anche questo SSD è dotato di buffer SLC, anche se probabilmente è orientato più per le prestazioni che per la durata

Il miglior modo di valutare l'efficacia del controller/firmware sarebbe quello di poter eseguire (a parità di Gb) dei test paralleli con dati misti e traendo una media generale...

Questi sono parte dei dati d'uso del mio SSD. La prima colonna colorata è la write amplification cumulativa, la seconda quella calcolata rilevazione per rilevazione.

Mamma mia sei peggio di @zultan con le sue tabelle cesellate!!!!! Complimenti! :ok:
 
Ultima modifica:
a meno che non continuino ad aumentare in maniera costante i blocchi difettosi, indice di possibili problemi più serii.
Spero di no, anche perchè il reso termina il 14 dicembre o oppure a gennaio (pagando però poi la spedizione di ritorno, che essendo tra l'altro in spagna, poste italiane me la farà pagare un casino).
Rivedendo lo screenshot che avevi postato in precedenza, hai già effettuato un numero di scritture NAND superiore alla capienza del drive, e l'indicatore del numero di scritture minimo effettuato su tutte le celle è già scattato ad 1, dunque l'SSD deve essersi già passato in rassegna tutte le celle di memoria e contrassegnato come difettosi tutti i blocchi che c'erano da contrassegnare come tali.
Questo significa che non dovrei beccare problemi di fabbrica quindi? Non ci sono altri blocchi difettosi?
 
Questo significa che non dovrei beccare problemi di fabbrica quindi? Non ci sono altri blocchi difettosi?
Dando per assunto che fosse un blocco difettoso sfuggito ai precontrolli di fabbrica (cosa supportata dal fatto che è uscito subito) e che l'SSD oramai ha effettuato almeno un ciclo di scrittura (e quindi verificato il corretto funzionamento) su tutti i suoi blocchi, non dovrebbero essercene altri, ma non posso metterci la mano sul fuoco. Questo puoi verificarlo solo con l'uso. Un buon modo per accelerare e/o confermare la cosa potrebbe essere riclonare il sistema su sé stesso e/o fargli fare abbastanza scritture da far aumentare il contatore medio delle scritture di un paio di altre unità, cosa che corrisponderebbe a circa 750GB-1TB se effettui solo scritture sequenziali.

Consideralo un po' come quei test che si fanno agli hard disk nuovi in campo business o enterprise: li si fanno andare a carico massimo per per un po' di tempo per tirare subito fuori i settori difettosi ed eventualmente considerare di fare sostituire le unità.




:D fantastico ...uno più fissato di me sugli ssd !!
Avendocene a che fare da diversi anni... e dovendo lottare quasi quotidianamente contro miti e luoghi comuni... è diventato un obbligo effettuare prove e test personalmente e cercare di documentarmi più a fondo!


Si daccordo, ogni SSD avrà i suoi modi di gestire le scritture, ma vale per tutti MLC o TLC che a minore uso delle celle corrisponde aspettativa di vita maggiore.
Poi ogni produttore è libero di creare software o strutture per ridurre la WA, conta il risultato e se, come osserva l'utente di AnandTech, il metodo della turbo write è vincente, il WL funziona alla grande...ave a Samsung!
Il principio è però quello in tutti i casi.
In realtà volevo semplicemente dire che non è detto che una write amplification di 2x sia normale o indice di drive efficiente. Dipende sia dal tipo di workload esercitato principalmente (dati prevalentemente random/sequenziali/misti, ecc) che dall'SSD in sé.

Il tuo modello di Sandisk dovrebbe funzionare molto similmente al modello EVO della Samsung (e Sandisk l'ha fatto prima ;) ), con una pre-scrittura, quindi in teoria dovresti avere un WA bassa. Invece se leggo bene sei complessivamente su 2,3
Sì, complessivamente il valore è quello ed è in più o meno costante, anche se lenta, crescita.
Per la WA ipotizzo che semplicemente non è per abbassarla che questo SSD ha tale sistema.

Complessivamente, a parità d'uso, ho avuto una write amplification inferiore sul Samsung 840 TLC (prima serie) che ho usato prima di questo, che è arrivata a circa 1.38x dopo 14 mesi e 11 terabyte di host writes. Non aveva alcun buffer speciale, eppure...

Sulla differenza tra MLC e TLC in relazione alla WA, lo prendo per buono, non saprei la discriminante
È possibile che gli algoritmi di wear leveling degli SSD con memorie TLC tendano a privilegiare l'abbattimento della write amplification e quindi della durata in scritture piuttosto che i tempi di risposta o le prestazioni massime.

Il miglior modo di valutare l'efficacia del controller/firmware sarebbe quello di poter eseguire (a parità di Gb) dei test paralleli con dati misti e traendo una media generale...
Credo sia difficile stabilire una media in questo modo che sia anche significativa, non saprei.

Mamma mia sei peggio di @zultan con le sue tabelle cesellate!!!!! Complimenti! :ok:
E pensare che ad un certo punto ho pure pensato di fare un'applicazione a sé stante in Python per automatizzare il tutto, ma fare una cosa fatta bene e che sia affidabile non è semplice.
 
Dando per assunto che fosse un blocco difettoso sfuggito ai precontrolli di fabbrica (cosa supportata dal fatto che è uscito subito) e che l'SSD oramai ha effettuato almeno un ciclo di scrittura (e quindi verificato il corretto funzionamento) su tutti i suoi blocchi, non dovrebbero essercene altri, ma non posso metterci la mano sul fuoco. Questo puoi verificarlo solo con l'uso. Un buon modo per accelerare e/o confermare la cosa potrebbe essere riclonare il sistema su sé stesso e/o fargli fare abbastanza scritture da far aumentare il contatore medio delle scritture di un paio di altre unità, cosa che corrisponderebbe a circa 750GB-1TB se effettui solo scritture sequenziali.

Consideralo un po' come quei test che si fanno agli hard disk nuovi in campo business o enterprise: li si fanno andare a carico massimo per per un po' di tempo per tirare subito fuori i settori difettosi ed eventualmente considerare di fare sostituire le unità.
Capito, grazie :) Non so però se mi conviene bruciarmi a vuoto un altro ciclo di scritture...rimpiango già il primo ciclo :popo:
Mi affido alla tua supposizione anche se non metti la mano sul fuoco, per me è sufficiente ;)
O comunque...tu cosa faresti? :D
 
Qualche prova in tal senso io la farei. Prima di poter cominciare a definire l'SSD usurato devi arrivare ad almeno 3000 cicli di scrittura. Sei ancora ad 1...

Discorso diverso quello per la validità della garanzia limitata di 5 anni di SanDisk (massimo 80 TB scritti a prescindere dal numero di cicli di scrittura impiegati), anche se penso sia più una formalità per evitare che utenti enterprise usino questi drive consumer nei propri server che un reale vincolo per quelli home.

In alternativa continua ad usare l'SSD normalmente, ma ci vorrà tempo per accumulare cicli su cicli e potenzialmente stanare fuori altri blocchi difettosi, sempre a meno che non sia un problema di diversa matrice, indipendente dalle scritture o letture effettuate, come accennato in precedenza.


EDIT: A ripensarci, magari puoi provare a fare più test consecutivi in lettura con HDTune. Dovrebbe scannerizzarsi tutto il drive, e quindi tutte le celle di memoria (a parte quelle riservate dell'overprovisioning di fabbrica). Non è un test completo (una cella di memoria può essere leggibile senza problemi ma darne durante la fase di programmazione/scrittura), ma è qualcosa che si può fare senza consumare/usurare nulla.
 
Ultima modifica:
ok, allora mi faccio una scansione con HDTune e vediamo cosa ci esce ;)
Perdonami nel frattempo la domanda un po' stupida... se l'hd fa almeno 3000 cicli, e 1 ciclo equivale ad una scrittura completa dell'hd (in questo caso 480 GB), vuol dire che io posso scrivere in totale almeno 480*3000 = circa 1440 Tb?? O.O
 
ok, allora mi faccio una scansione con HDTune e vediamo cosa ci esce ;)
Perdonami nel frattempo la domanda un po' stupida... se l'hd fa almeno 3000 cicli, e 1 ciclo equivale ad una scrittura completa dell'hd (in questo caso 480 GB), vuol dire che io posso scrivere in totale almeno 480*3000 = circa 1440 Tb?? O.O

Non esattamente, anche se ci sei andato vicino. In generale il calcolo è più o meno quello, comunque.
Rimando a questa spiegazione semplificata in merito che ho scritto in un altro forum:

La durata di un SSD dipende direttamente dai cicli di scrittura effettuati in media sulle sue celle di memoria.

Di base, un ciclo di scrittura equivale ad un ammontare di scritture in GB pari alla capienza dell'SSD, per cui se l'SSD è capiente 120GB, un ciclo di scrittura, a grandi linee sarà pari a 120GB.

Tuttavia a causa di come vengono gestite internamente le memorie dell'SSD, un nella pratica un ciclo di scrittura scatta generalmente ad una quantità di GB inferiore rispetto alla capienza del drive. Il rapporto fra scritture effettuate sulle memorie (scritture "NAND") e scritture effettuate dall'utente scritture "Host") è denominato Write Amplification. Questa varia a seconda degli usi, ma in genere si aggira attorno a 2-3x. Con una write amplification pari a 2x, ci vorranno 60GB per var scattare di 1 il contatore dei cicli di scrittura di un SSD da 120GB, mentre ce ne vorranno 40 se invece è pari a 3x, e così via.

Gli SSD sono dotati di un numero limite di cicli entro il quale rimangono in specifica. Per gli SSD odierni dotati di memorie denominate MLC, questo è in genere 3000, mentre per quelli dotati di memorie TLC, più o meno 1000. Questo limite non è invalicabile: si può andare oltre, a scapito del decadimento di certe caratteristiche delle memorie. In ogni caso non è come molti pensano un limite oltre il quale l'SSD smette immediatamente di funzionare.

Esempio pratico: se un SSD da 250 GB ha memorie progettate per 1000 cicli di scrittura, la durata "base" sarà pertanto (semplificando) 250 GB × 1000 = 250000 GB. Se mettiamo in gioco anche una write amplification "tipica" di 2.0x, sarà di 250000 ÷ 2.0 = 125000 GB. Questo, ancora, per arrivare al limite entro cui le memorie dell'SSD rimangono in specifica.

In questo caso, se calcolassimo di scrivere ogni giorno 40 GB come faccio io, vorrebbe dire che questi 125000 GB verrebbero raggiunti in 3125 giorni, o circa 8 anni e mezzo. Se scrivessi 20 GB al giorno, sarebbero 17 anni, e così via.

Avrai capito che ci sono diversi fattori che influenzano la durata di un SSD, che non è veramente un valore fisso, dipende da caso a caso, dal modello usato, capienza complessiva e dai propri usi.

Con usi tipici home del sistema operativo generalmente non c'è bisogno di preoccuparsi delle scritture perché il limite è talmente elevato che l'SSD difficilmente morirà per questo.

Diverso discorso quello della garanzia: diversi produttori pongono un limite di scritture - comunque ancora generalmente abbastanza elevato per utilizzo home - entro cui la garanzia è valida, che è spesso abbastanza inferiore rispetto a quanto le memorie possono nella pratica permettere.
 
Perfetto! Tutto chiaro! Quindi facendo delle statistiche molto ma molto arrotondate, ho più di 1000 Tb da poter scrivere in tutta sicurezza (salvo restando problemi di altra natura).
Correggimi se sbaglio:
WA= NAND\Host = 751\648 = 1.16
1 Ciclo= Capacità Tot\WA = 480\1.16= 414
3000 Cicli = 414 * 300 = >1200 Tb

Se è così però si sprecano proprio i produttori a lasciare garanzie di 80 Tb :S

Visto che sto cominciando VAGAMENTE a capire di che si parla, ti chiedo: ma la WA da cosa dipende? Cioè tende a mantenersi più o meno costante? Oppure le scritture NAND cambiano molto in base ad un certo tipo di utilizzo (es: scritture casuali aumentano NAND, scritture sequenziali tendono a farla rimanere costante rispetto alle scritture host).

PS: fatto test con HDtune, nessuna novità a parte quel blocco riallocato
 
Perfetto! Tutto chiaro! Quindi facendo delle statistiche molto ma molto arrotondate, ho più di 1000 Tb da poter scrivere in tutta sicurezza (salvo restando problemi di altra natura).
Correggimi se sbaglio:
WA= NAND\Host = 751\648 = 1.16
1 Ciclo= Capacità Tot\WA = 480\1.16= 414
3000 Cicli = 414 * 300 = >1200 Tb

Come avevo scritto in precedenza, c'era qualche semplificazione nel discorso.
Nel conteggio dei cicli di scrittura conta tutta la memoria NAND dell'SSD, inclusa quella inaccessibile dall'utente, utilizzata per l'overprovisioning di fabbrica. I SanDisk Extreme/Extreme II/Extreme Pro hanno 512 GiB di memoria NAND, quindi questo è il valore che andrebbe utilizzato nei calcoli.

Questo potrerebbe a stime di durata maggiori, ma c'è il fatto che con tutta probabilità la write amplification con il tempo tenderà a salire. Nel mio caso, la media globale è al momento di 2.3x circa, in lenta ascesa. Tuttavia è possibile che nel tuo caso, considerato anche il firmware più nuovo ed assai probabilmente l'uso diverso, possa essere minore.

Agli inizi, a drive appena clonato, è normale che la write amplification sia bassa perché grandi scritture sequenziali portano intrinsecamente ad un suo naturale abbassamento.

Se è così però si sprecano proprio i produttori a lasciare garanzie di 80 Tb :S
Esattamente!

Visto che sto cominciando VAGAMENTE a capire di che si parla, ti chiedo: ma la WA da cosa dipende? Cioè tende a mantenersi più o meno costante?

Oppure le scritture NAND cambiano molto in base ad un certo tipo di utilizzo (es: scritture casuali aumentano NAND, scritture sequenziali tendono a farla rimanere costante rispetto alle scritture host).
È proprio come dici. Varia molto con l'uso. Per un esempio di write amplification in vari casi, il grafico che ho postato nella pagina precedente dovrebbe esserti più comprensibile ora. Lo ripropongo qui:

lGbfzAv.png


La prima colonna colorata mostra la write amplification cumulativa calcolata con le scritture NAND e Host complessive, mentre la seconda colonna colorata mostra invece quella per ogni rilevazione. La colonna denominata GiB Δ indica la dimensione in GB di ogni rilevazione. Più a destra ho annotato il tipo di uso nel caso si fosse distinto particolarmente dal solito.

Questa è la parte iniziale, anche da me la write amplification è partita bassa, ma poi è aumentata con l'uso:

http://i.imgur.com/OAEHwd9.png

PS: fatto test con HDtune, nessuna novità a parte quel blocco riallocato
Immaginavo un risultato simile. Per essere ancora più sicuri servono le scritture, in ogni caso.
 
Ultima modifica:
Pubblicità
Pubblicità
Indietro
Top