DOMANDA Aiuto scelta SSD M2

Pubblicità
Intendi Fury Renegade, vero? È il Fury con maggior OP, non il KC3000.
chiaro
ma intendo
è vero che col KC3000 si ha a prescindere più spazio a disposizione con tutti i tagli? in confronto al Renegade, chiedo
512 gb vs 500gb
1024 gb vs 1000 gb
2048 gb vs 2000 gb
4096 gb vs 4000 gb nominali

questo stando a leggere cosa hanno scritto sul sito ufficiale, qui link KC3000 e qui link FURY Renegade

prestazioni analoghe KC3000 vs Renegade (a parte il taglio 500gb?)
KC3000 che ha prezzo inferiore

tutto ciò mi fa preferire il KC3000
 
Ultima modifica:
Tecnicamente, la differenza di prezzo è di 1,81€ a vantaggio per il Fury Renegade, quindi si parla di spiccioli dai calcoli di BAT.
 
Perfetto, allora possiamo affermare che teoricamente solo i tagli da 500GB hanno performance diverse.
Devono comunque dimostrarlo. Ma per farlo dovrebbero recensire i modelli da 500GB e riempire l'ssd.
Comunque non l'ho detto prima, lo dico adesso... è una balla.
L'OP maggiore non accresce le prestazioni ma semmai - ed anche li è da vedere - la durata utile del dispositivo.
L'OP o lasciare un ssd non riempito completamente è perfettamente uguale. Non ci sono aree dedicate all'OP che rimangono vergini a disposizione del controller, tutto è indifferenziato ed utilizzato. L'OP di fabbrica è in pratica una disponibilità maggiore di celle qualsiasi che il controller può usare ma che sono tolte dai GB disponibili all'utente.
Tecnicamente, la differenza di prezzo è di 1,81€ a vantaggio per il Fury Renegade, quindi si parla di spiccioli dai calcoli di BAT.
amazon
KC3000 ora 124,81 € --> 0,121 € /GB (1024GB)
Fury Renegade 123,79 € --> 0,123 € /GB (1000GB)

si può dire uguale il prezzo, il vantaggio sono 22GiB visti in più da Windows.
 
si ma stiamo discutendo del sesso degli angeli eh! 😄
22 GiB, ormai sono briciolette anche per gli SSD, se poi andiamo sul formato da 2 TB...
alla fine uno vale l'altro, l'hw è identico, sfido qualunque essere umano e disumano ad accorgersi della differenza senza un numeretto espresso da un benchhmark
 
amazon
KC3000 ora 124,81 € --> 0,121 € /GB (1024GB)
Fury Renegade 123,79 € --> 0,123 € /GB (1000GB)
sì scusate, io guardavo sempre il confronto prezzi tra i modelli 2TB
visto che ora su ebay c'è lo sconto -15% fino al 16 novembre coupon col codice "REGALI22" che però funziona solo con un paio di venditori di KC3000 e non valido con altri

stranamente non risulta in lista se si fa click sul banner del 15% e si fa la ricerca da lì (risulta solo uno più caro che non conviene)
però lo si trova con ricerca classica su ebay, che però scrive che si può comunque usufruire del -15% tramite codice
 
Ultima modifica:
si ma stiamo discutendo del sesso degli angeli eh! 😄
22 GiB, ormai sono briciolette anche per gli SSD, se poi andiamo sul formato da 2 TB...
alla fine uno vale l'altro, l'hw è identico, sfido qualunque essere umano e disumano ad accorgersi della differenza senza un numeretto espresso da un benchhmark
😂 bisogna spremere..

Ma l’OP non aiuta le performance anche quando l’SSD è pieno o quasi? o ricordo male?
Non accresce le prestazioni, sostiene o aiuta (ma ci sono ssd simili che hanno le stesse prestazioni, no?) la cache slc.
Ecco perchè ha maggiore peso (l'OP) sul modello da 500GB. Sono quelli (250 e 500GB) dove lo spazio libero tende a mancare.
Inizialmente si diceva che mon solo aiutava ma era fondamentale per il garbage collection / wear leveling del controller, ma questa parte è ormai assorbita dall'OP di fabbrica. quello per intenderci usato anche per riallocare.
 
Non accresce le prestazioni, sostiene o aiuta (ma ci sono ssd simili che hanno le stesse prestazioni, no?) la cache slc.
Ecco perchè ha maggiore peso (l'OP) sul modello da 500GB. Sono quelli (250 e 500GB) dove lo spazio libero tende a mancare.
Ah OK, OK, capisco, la differenza si sente soltanto nel test che Tom's Hardware chiama "Sustained Write Performance and Cache Recovery".
 
In merito all'OP se volete approfondire

Volendo essere anche schematici:

L'over-provisioning può aumentare la durata di un'unità a stato solido distribuendo il numero totale di scritture e cancellazioni su una popolazione più ampia di blocchi e pagine di celle di memoria.
L'over-provisioning offre inoltre al controller ulteriore spazio nel buffer per la gestione dei cicli di programma/cancellazione (cicli P/E ). Lo spazio aggiuntivo nel buffer migliora (in situazione di mancanza di spazio-utente: ssd pieno) le prestazioni complessive dell'SSD. È particolarmente utile per migliorare le prestazioni di scrittura perché aumenta la probabilità che un'operazione di scrittura abbia accesso immediato a un blocco pre-cancellato.
L'over-provisioning dell'SSD riservata non è visibile all'host come spazio di archiviazione disponibile (non è visibile in gestione disco di Windows o altro sistema operativo)

Esistono 3 tipi di over-provisioning SSD:

- OP di fabbrica: utilizzato per il firmware del controller (gli algoritmi di livellamento, garbage collection, sostituzioni di blocchi fallite; questo spazio è solitamente ritagliato o dalla differenza tra le quantità decimali vs binarie delle celle o dalle celle in più già presenti nello stack del chip di celle 3D.
Il primo caso (che casca bene per questa discussione) per fare un esempio, la capacità di un SSD potrebbe essere segnalata come 500 gigabyte (GB), ma la capacità effettiva potrebbe essere 500 gibibyte ( GiB ). Ogni GiB contiene 73.741.824 byte in più rispetto a un GB, il che si traduce in circa il 7,37% di capacità in più. Quel 7,37% è riservato e non fa parte della capacità disponibile per il computer host. L'host non può vedere l'over-provisioning. Dal punto di vista dell'host, sono disponibili per l'uso solo 500 GB, o 465,7 GiB].

- OP del produttore: ovvero un produttore di SSD potrebbe anche mettere da parte capacità aggiuntiva per ospitare carichi di lavoro ad alta intensità di scrittura. Succede sempre con gli ssd di tipo enterprise. La capacità aggiunta è compresa tra il 7% e il 28% e, a volte, anche di più, oltre all'over-provisioning di fabbrica. Anche questa capacità aggiuntiva non è disponibile per l'host.

- OP dell'utente: configurato dall'utente dell'SSD sotto forma di spazio non allocato rispetto ai volumi creati e visibili all'host.
Non ci sono regole d'oro - anche se qualcuno ci ha provato* - per l'applicazione di un OP migliore, anzi io promuovo il non OP constatando che per usi light quello di fabbrica basta e avanza. Ci sono delle precauzioni che comunque vanno osservate, pena la perdita di prestazioni: lasciare sempre una decina-ventina di GB liberi.
* https://www.kingston.com/en/blog/pc-performance/overprovisioning
 
Ultima modifica:
Scusate se entro in questa discussione , ma volevo chiedere , dato che la dram serve per mantenere la mappa dell'ordine, come mai se con una scrittura di file molto grandi ad un certo punto si ha un crollo delle prestazioni?
@Liupen
 
Scusate se entro in questa discussione , ma volevo chiedere , dato che la dram serve per mantenere la mappa dell'ordine, come mai se con una scrittura di file molto grandi ad un certo punto si ha un crollo delle prestazioni?
@Liupen
Esatto la DRAM memoria volatile interna del chip serve per aggiornare la mappatura, l'indice di conversione blocco logico/blocco fisico e altre funzioni di calcolo, garbage, livellamento (il tutto si chiama FTL).
Se non c'è DRAM ora c'è l'Host Memory Buffer, algoritmo che occupa un pezzetto di RAM della CPU.
Più la sovrascrizione della mappatura è veloce, più veloce (a parità di tutto) è la scrittura dei dati casuali... fino al limite fisico delle capacità del controller.

Questo è un aspetto a se, diverso dal crollo della scrittura ad un certo punto del trasferimento.

E' questo che intendi vero:

1676494640035.webp

Le celle a 3bit (TLC) non sono così veloci a scrivere come le SLC o MLC. allora per mantenere semplicemente le prestazioni, i produttori hanno inserito una cache SLC. Non ha la piena velocità di scrittura di 1bit, ma aumenta le prestazioni abbastanza da saturare il sata e avere buone prestazioni negli ssd nvme, anzi si saturano anche quelli.
La cache è fatta di celle che il controller scrive con 1bit invece di 3bit, ci impiega meno a scrivere a parità di dati inseriti.
MA la cache di celle è limitata. Se è di 20GB vengono scritti circa 20GB a velocità più alta e poi la velocità crolla alla velocità propria delle celle TLC a 3bit scritti.
Durante la scrittura stessa le prestazioni possono alzarsi temporaneamente perchè nel frattempo il controller che scrive, svuota la cache e questa viene riutilizzata parzialmente.. una specie di alto/basso della velocità.
A volte poi, la primissima parte del trasferimento avviene proprio a massima velocità (lo vedi anche sopra).
E' dovuto alla coda di comandi che ancora non saturano i canali e quindi sono scritti subito.
Se hai un file da 1MB o 30 GB il controller lo assimila in blocchi da 4K o 512e byte, tutti questi pezzi da scrivere formano una coda, tipo la coda di stampa della stampante. Ma mentre la stampante può stampare 1 foglio alla volta, il controller è collegato con più canali e può scrivere parallelamente su più chip quando la coda è tanta... fino al punto che la coda è troppa anche per essere scritti dati in parallelo.
 
Esatto la DRAM memoria volatile interna del chip serve per aggiornare la mappatura, l'indice di conversione blocco logico/blocco fisico e altre funzioni di calcolo, garbage, livellamento (il tutto si chiama FTL).
Se non c'è DRAM ora c'è l'Host Memory Buffer, algoritmo che occupa un pezzetto di RAM della CPU.
Più la sovrascrizione della mappatura è veloce, più veloce (a parità di tutto) è la scrittura dei dati casuali... fino al limite fisico delle capacità del controller.

Questo è un aspetto a se, diverso dal crollo della scrittura ad un certo punto del trasferimento.

E' questo che intendi vero:

Visualizza allegato 453267

Le celle a 3bit (TLC) non sono così veloci a scrivere come le SLC o MLC. allora per mantenere semplicemente le prestazioni, i produttori hanno inserito una cache SLC. Non ha la piena velocità di scrittura di 1bit, ma aumenta le prestazioni abbastanza da saturare il sata e avere buone prestazioni negli ssd nvme, anzi si saturano anche quelli.
La cache è fatta di celle che il controller scrive con 1bit invece di 3bit, ci impiega meno a scrivere a parità di dati inseriti.
MA la cache di celle è limitata. Se è di 20GB vengono scritti circa 20GB a velocità più alta e poi la velocità crolla alla velocità propria delle celle TLC a 3bit scritti.
Durante la scrittura stessa le prestazioni possono alzarsi temporaneamente perchè nel frattempo il controller che scrive, svuota la cache e questa viene riutilizzata parzialmente.. una specie di alto/basso della velocità.
A volte poi, la primissima parte del trasferimento avviene proprio a massima velocità (lo vedi anche sopra).
E' dovuto alla coda di comandi che ancora non saturano i canali e quindi sono scritti subito.
Se hai un file da 1MB o 30 GB il controller lo assimila in blocchi da 4K o 512e byte, tutti questi pezzi da scrivere formano una coda, tipo la coda di stampa della stampante. Ma mentre la stampante può stampare 1 foglio alla volta, il controller è collegato con più canali e può scrivere parallelamente su più chip quando la coda è tanta... fino al punto che la coda è troppa anche per essere scritti dati in parallelo.
Grazie mille per la risposta molto esaustiva, finalmente sono riuscito a capire come funziona 🤣🤣🤣
 
Pubblicità
Pubblicità
Indietro
Top