DOMANDA Meglio il dissipatore fornito con M2 o quello in dotazione della scheda madre?

Pubblicità
Un abbassamento di performance si ha per due motivi:
1) viene terminata la cache SLC, ovvero un buffer di scrittura che è in grado di simulare il funzionamento delle NAND SLC su quelle TLC/QLC
Quindi per limitare in parte la saturazione resta valida ancora adesso l'accortezza usata sui primi ssd di lasciare un 10% di spazio non allocato?
come il FireCuda 530 da 2TB che dopo ~225GB da vuoto passa da 6900 MB/s a ~3800 MB/s MB/s.
Un calo così brusco dopo soli 225 gb? 😯

Tra FireCuda 530, Fury Renegade, NM790 e EN870?
Firecuda 530 = Fury Renegade > NM790 = EN870. L’SN850X si piazza dopo il Fury Renegade e prima dell’NM790.
Sì. Tra FireCuda 530, Fury Renegade, NM790 e SN850x. Ma sono vicini come per le prestazioni o hanno distacchi notevoli di affidabilità?

Ps. Nei test di tomshw l'SN850x per performance risulta quasi sempre migliore degli altri, è secondo solo all'Hynix 41… e lo consigliano sempre come alternativa più economica al samsung 990 pro.
Invece il 530 in alcuni banch è anche dietro all'NM790…
Come vanno interpretati questi test?
 
Quindi per limitare in parte la saturazione resta valida ancora adesso l'accortezza usata sui primi ssd di lasciare un 10% di spazio non allocato?
Per me no, perlomeno per uso domestico, quindi uso leggero, perché l’over-provisioning (OP, quello di cui tu stai parlando, ovvero un numero di blocchi flash utilizzati solo dal controller dell’SSD) è impostato di default dall’azienda del 7-7,5% circa. Ne puoi aggiungere di spazio di OP ma ridurresti sensibilmente la capacità, e non penso che otterresti grandi miglioramenti di performance.
Un calo così brusco dopo soli 225 gb? 😯
Beh, “soli” mi sembra un parolone, anche se in effetti ci sono SSD che hanno una cache SLC nettamente più grande, come il Crucial T500 (~700GB, infatti è talmente grande che dopo il suo riempimento le performance cadono a ~500 MB/s) e il KC3000 (~369GB per l’1TB e ~700GB per il 2TB). Ricorda, però, che essendo questo tipo di cache SLC dinamico, man mano che aggiungi dati all’SSD diminuisce di capienza, perché funziona così la cache SLC dinamica, condivide una zona di usura con le NAND flash e più le utilizzi più si rimpicciola. Magari sono 225GB a SSD vuoto, ma con l’SSD al 50% possono essere 100GB o anche meno. Idem per il T500 e KC3000 condividendo questo tipo di tecnologia. Gli unici SSD che non diminuiscono di cache nel tempo sono quelli con cache SLC statica, come il WD SN550, peccato che quella statica è già piccola di sua (non supera i 45-50GB solitamente, ma l’1TB di SN550 ha 12GB addirittura).
Ma sono vicini come per le prestazioni o hanno distacchi notevoli di affidabilità?
Beh, dato il tipo di NAND flash (il FireCuda 530 e il Fury Renegade usano le NAND flash Micron 176L TLC che hanno un’architettura basata su TCAT, generalizzando questo tipo di celle godono della miglior durata anche se non ho parecchie informazioni sul tipo di architettura usata da YMTC) e la presenza di DRAM direi di sì, c’è differenza.
Come vanno interpretati questi test?
Questo penso sia il campo più di @Liupen che mio avendo testato molti più SSD di me da molto più tempo. Aspettando il suo parere ti dico il mio: guarda i benchmark in scrittura sostenuta (quelli che denotano le cache SLC degli SSD con le rispettive performance sia durante che dopo), quelli in scrittura e lettura sequenziali (solitamente con blocchi da 1MB) e randomiche (blocchi da 4KB) a bassa queue depth (QD, profondità di coda, ossia il numero di richieste I/O fatte dal sistema operativo) e bassi thread, questo perché simulano il più possibile l’utilizzo reale dell’utente, mentre i test in - per esempio - 4KB QD256T16 sono molto lontani dal farlo, l’utente medio non farà più di 4-8 richieste I/O secondo me, e 8 è anche tanto.
 
Ultima modifica:
@Real Black Innanzitutto grazie per le tue informazioni molto precise e dettagliate 😊

Beh, “soli” mi sembra un parolone, anche se in effetti ci sono SSD che hanno una cache SLC nettamente più grande
Ah, scusa, parlavi di cache! Avevo avevo letto di corsa e frainteso il dato associandolo alla capacità totale dell’ssd (del tipo che avesse quel calo dopo averlo riempito per "soli 225Gb") e mi era venuto un colpo! Quindi invece è un calo che praticamente si vede solo con lo spostamento di file di grandi dimensioni, oltre quei valori dei vari modelli che hai portato negli esempi… Certo ora cambia la prospettiva 😃

Beh, dato il tipo di NAND flash (il FireCuda 530 e il Fury Renegade usano le NAND flash Micron 176L TLC che hanno un’architettura basata su TCAT, generalizzando questo tipo di celle godono della miglior durata anche se non ho parecchie informazioni sul tipo di architettura usata da YMTC) e la presenza di DRAM direi di sì, c’è differenza.
Bene, allora la propensione si rafforza verso il Renegade o il FireCuda, che tra l’altro ha anche un dissipatore graficamente simpatico (per quanto non sia motivo di influenza di scelta) − ma questo denota solo una grande accortezza alla campagna di marketing che hanno fatto (basta vedere l’edizione Star Wars) per gonfiare ulteriormente i prezzi 😅

E le NAND flash Hynix del P41, invece, come si collocano rispetto alle Micron? Stessa affidabilità o maggiore?

questo perché simulano il più possibile l’utilizzo reale dell’utente
Quindi si può pensare che tali test si possano ritenere attendibili, giusto? E il fatto che consiglino un tal ssd rispetto ad un tal altro non è solo speculazione "di interesse markettaro"…? E in effetti in altri siti invece si nota in maniera alquanto evidente questa tendenza pubblicitaria mascherata da recensione… 😅😅
 
E le NAND flash Hynix del P41, invece, come si collocano rispetto alle Micron? Stessa affidabilità o maggiore?
Direi peggiore. L’SK hynix usa NAND flash proprietarie che sono basate sull’architettura P-BiCS (evoluzione delle BiCS di Kioxia), comunque peggiore di TCAT per diversi motivi tecnici, come il non utilizzo di nitruro di silicio (Si₃N₄) in forma biconcava e il processo gate-last (chiamato anche “replacement gate (RG)”).

Questo è quello che intendo con “forma biconcava”, guarda la rappresentazione a destra:
IMG_3663.jpeg
Il Si₃N₄ (“Si Nitride” nell’immagine) sarebbe lo strato che serve per contenere gli elettroni che vengono rilevati come dati nel tuo SSD. Con una forma biconcava c’è un miglior data retention (capacità di mantenere i dati senza corrente), un margine dei livelli di tensione di soglia (Vth) più ampio, ecc.

Invece RG sarebbe la tecnica di costruzione della NAND flash in sé. In questo caso il gate viene formato alla fine sacrificando del materiale iniziale che porta ad un maggior endurance.
Quindi si può pensare che tali test si possano ritenere attendibili, giusto?
Sì, bisogna fare soltanto attenzione alla metodologia e condizioni dei test. E sì, comunque, spesso vengono fatte marchette, stai attento alle guide all’acquisto di queste testate.
 
Ultima modifica:
Eccomi!

Questione OP direi che tutto sommato serve di nuovo per gli nvme specie con grande cache pSLC.
In previsione del futuro dell'ssd, diciamo che evita che, riempiendolo troppo, si limiti poi altrettanto quella cache che rende l'ssd nvme TLC alle massime prestazioni (per gli ssd QLC direi che è quasi indispensabile usarlo). Non che si noti qualcosa; spesso ci si accorge incidentalmente delle scritture cappate facendo un bench, ma poi tra 6000 MB/s e 2000... in effetti, essendo una regressione lenta, passa in sordina.

Ps. Nei test di tomshw l'SN850x per performance risulta quasi sempre migliore degli altri, è secondo solo all'Hynix 41… e lo consigliano sempre come alternativa più economica al samsung 990 pro.
Invece il 530 in alcuni banch è anche dietro all'NM790…
Come vanno interpretati questi test?
Allora, innanzitutto ho un forte dubbio che questi test di THW rispecchino poi la realtà, per un semplice motivo: THW recensisce degli ssd vuoti quando ormai tutto l'apparato si basa proprio sull'equilibrio di cui parlavo sopra. La cache slc in scrittura rende tutti i modelli velocissimi nello stesso modo.
Quindi se la lettura è solitamente per tutti questi ssd ben fatta e la scrittura per tutti livellata (alta), di che stiamo a parlare (nelle recensioni intendo)?
Cose inconsistenti... le vere cose da guardare sono le cose che succedono attorno: firmware mal fatti, bug, difetti nelle velocità dovute a prestazioni per determinati carichi, controller che scaldano in modo anomalo, ecc. Le cose da guardare sono i commenti degli utenti e cosa ne viene fuori...
Se ad esempio si guarda proprio Lexar NM790, mi chiedo come un nvme HMB riesca ad avere prestazioni di scrittura uguali ad un nvme con DRAM (?)
Ciò non è proprio possibile in scrittura sequenziale e se succede nel bench è... perchè il bench non è in grado di farlo vedere; andrebbe ristudiato.

Segue uno spoiler perchè se volete un occhio critico, vado a dilungarmi (🤷‍♂️) ma criticamente, e leggere e commentare questa pagina di THW riguardante appunto NM790, così da rispondere alla domanda: Come vanno interpretati questi test?

Il primo test è di lettura utilizzando un software che fà parte di 3DMark e che potete scaricare tramite Steam.
Testa l'uso dell'ssd nei giochi, ovviamente lettura... i giochi quello fanno con gli ssd.
Un test che serve solo a fare confronti di punteggio ma che ad esempio poteva comprendere DirectStorage di Microsoft (ad esempio). Occasioni mancate!
Come si può vedere dai grafici abbiamo tre fasce di prestazioni... guarda caso corrispondono alle generazioni di nvme pcie 5.0 /4.0 (o con celle QLC)/3.0
Mi pare ovvio... proprio ad ogni salto generazionale pcie aumenta il bandwidth ed è possibile utilizzare dei controller più performanti da cui si ottengono prestazioni migliori.
Inoltre sono omessi degli ssd della stessa categoria come poi il testo dice:

....ciò mette il Phison E18 e controller di classe simile, come SM2264 e IG5236, in un po' di difficoltà, ma vale la pena menzionare che questi sono dietro al WD Black SN850X, SK hynix Platinum P41/Solidigm P44 Pro e 990 Pro. L'NM790 è nella posizione migliore per spodestare i vecchi design E18 e IG5236 piuttosto che raggiungere la corona delle prestazioni.

quindi in effetti volendo fare le cose fatte bene, prima del NM790, ci sono degli nvme omessi di pari o superiore velocità di lettura.

Questo non vuol dire che il modello non sia valido, ma che il grafico è architettato per farlo risaltare in un panorama di nvme che hanno pari prestazioni.
Secondo discorso, sempre riferito a questo primo test, la lettura è la parte predominante (latenza) mentre la parte di scrittura risulta talmente esigua e poggiante sulla cache... che appiattisce come già detto i valori per tutti gli nvme dotati di pSLC.


Il secondo benchmark è sempre della piattaforma di 3DMark e sempre si può scaricare mediante l'account Steam.
Testa una condizione di uso office... molto banalmente fà più riferimento al tipo di hardware dell'ssd che non ha reali prestazioni dello storage, poichè anche un banale hdd farebbe bene in questo bench.
Il risultato è che ricalca quello sopra; gli ssd risultano divisi a seconda della classe di pcie e di celle.


Il terzo bench della pagina di review di THW riguarda ora la scrittura.
Visto che nella scrittura dell'ssd entrano in gioco molti elementi, dovrebbe essere un test dove vedere risultatati diversi.
Infatti il controller deve essere buono nell'hardware, nel firmware (la programmazione), gestire o meno l'HMB, le nand devono essere più o meno veloci (sia di tipologia che di generazione).. tante cose che più o meno possono influire.

DiskBench è un programmino gratuito che non fà altro che misurare la velocità di trasferimento. Molto semplicemente.
THW ha composto una cartella di file da 50 GB e uno zip da 6,5 GB e li da in pasto all'ssd per scriverli o leggerli.
Sinceramente ignoro il motivo per cui non ci sia anche le prestazioni di lettura della cartella da 50 GB o la scrittura dello zip da 6,5 GB... e non so neanche la differenza tra "copia" e "scrivi", visto che come scrive l'autore del software:

Tutto ciò che fa è:
1) copiare un file (cartella) da A a B, moltiplicare il tempo impiegato e cancellare di nuovo il file da B.


Concentrandosi sulla scrittura (la sola parte che interessa) la "forma" del risultato è quella vista in precedenza: ssd nvme di classe pcie superiore che sono anche più veloci a scrivere sequenzialmente... banale ovviamente.
Andando ad analizzare

1720694967795.png


1720694993758.png

Li prendo entrambe nel dubbio, e vedo che il T700 forte di un hardware migliore (Phison E26 pcie 5.0 associato alle ultime e veloce nand Micron), domina la scrittura. D'altra parte il controller ha a disposizione il doppio di capacità di scrittura

pcie5-20231218-5.jpg


e nella realtà anche se non doppia i pcie 4.0 scrive parallelamente meglio su più die delle nand... quindi ci siamo che sia più veloce, ma sappiamo anche che la latenza grava anche su questo dispositivo, per cui meglio si, ma... non di tantissimo.

A parte il Netac (vediamo dopo) il nostro NM790 è li davanti a tutti: Seagate, Sabrent (che hanno comunque stesso controller anche se nand Micron di generazione diversa).
Hanno però una cosa in comune, ovvero sono dotati di di DRAM DDR4 on pcb.
Le prestazioni "anomale" del Netac NV7000, che se andiamo a vedere ha lo stesso hardware del Seagate Firecuda, dimostra una velocità di scrittura fantastica per un pcie 4.0; in realtà neanche il recensore di THW da una spiegazione a questa prestazione https://www.tomshardware.com/reviews/netac-nv7000-ssd-review/2 se lo stesso firmware è presente sul Seagate non è una questione di programmazione, forse una anomalia, forse...
Tralasciamo questa storia e concentriamoci sul fatto che un DRAMless (HMB) possa competere in scrittura sequenziale con quelli che il chip ce l'hanno e dunque hanno un costo produttivo maggiore.
LA spiegazione è, penso, la più banale... 50 GB alla velocità di scrittura nominale di questi nvme pcie 4.0 (6.500 MB/s), sono in effetti 6,5 GB/s cioè 7,6 secondi

1720697853492.png


ovviamente stiamo testando la velocità della cache SLC dell'nvme, per cui il commento che THW fà

Il bus da 2400 MT/s e l'ampia quantità di die flash aiutano davvero l'NM790 a spingere la larghezza di banda per la copia dei file.

è giustissimo.. a parità di cache SLC con gli altri, vince il controller più veloce/nuovo accoppiato alle nand più veloci sul mercato.

Rispecchia la realta del nostro ssd nvme pieno di giochi o con il sistema operativo?
Ovviamente "ni" perchè l'ssd in questione è vuoto ed è un ssd secondario. Nella realtà il nostro ssd ha una cache pSLC cappata e magari richieste in background che determinano cali prestazionali in scrittura.
Se diamo poi da scrivere contemporaneamente più cose pesanti al nostro ssd DRAMless, ci accorgeremmo che i cali sono evidenti poichè l'aggiornamento delle mappatura sequenzialmente è più lenta.



Passiamo ai bench di ATTO e CrystalDiskMark. Sono software gratuiti e sono da prendere per ciò che sono: danno grossomodo l'idea delle potenzialità del ssd, ma non sono degli stress-test.

Atto scrive o legge per blocchi (un po come si può impostare anche DiskBench). Più il blocco è piccolo maggiore è il peso della latenza nel tempo che ci impiega (1), se il blocco (da leggere o scrivere) è abbastanza grande, la latenza è compensata e ci si trova in una condizione di stabilità nelle prestazioni (2)

1720698973924.png

Ora, cosa interessa vedere in ATTO?
La lettura dei blocchi tra 512KB e 4K (la dimensione del Blocco) con una coda di comandi simile a quella che farebbe un Windows, cioè QD 2 - 4

Mettiamo che sia questo, anche se l'hanno impostato con nessuna coda dei comandi

1720699410055.png
Diciamo che messo così il grafico è poco significativo...possono anche evitare.
Per esempio, nel grafico sopra THW rileva un anomalia nella lettura per 0,5 MB in poi (si vede il grafico che non è progressivo).
La cosa è rilevante ma non importante, poichè non è il solito modo con cui opera un sistema operativo se non con particolari richieste come ssd usati in DB ad esempio.



Crystadiskmark lo conosciamo, sappiamo cosa può misurare. L'unica cosa da tenere presente è che la misurazione delle prestazioni è spot e poi moltiplicata per un tempo superiore, quindi non mette alla prova realmente l'ssd con carichi significativi.
Andando in ordine di sequenza dei grafici:
a) la lettura random del blocco 4KB è nella media - questo test è il più vicino alla realtà ed il più importante, essendo la capacità del controller ad accedere alle informazioni al netto di potenza hardware, firmware (ECC), latenza, velocità delle celle nell'accesso ai dati.
Chi fà il valore più alto di questo, fa il jackpot, perchè vuol dire ritrovarsi con un ssd reattivo.
b) se alla lettura di un file da 4KB del test di prima, aggiungo 256 richieste contemporanee, ottengo naturalmente un ssd che più ha memorizzato su die diversi e più ha capacità di attingere dai die parallelamente, più va forte... ovviamente il pcie 5.0. E poi i pcie 4.0 e poi i pcie 3.0 e/o QLC.
c) la misura della latenza della lettura, ricalca il test a)
d) scrittura... iniziando con la scrittura del singolo file da 4KB senza coda di comandi. La prestazione deludente non è legata al fatto che l'ssd sia DRAMless, quanto ad una caratteristica sua (anche altri ssd con NAND YMTC Xtacking 4.0 hanno questo gap). Non è una cosa limitante, le scritture sono in prevalenza sequenziali e con DiskBench si è visto che và normalmente.
e) Scrittura file 4KB contemporanea di 256 file... la coda I/0 ha difficoltà (vedi motivo sopra).
f) la latenza di scrittura (importante per I/0) è molto alta, ma non è il caso di preoccuparsi. Certo però un purista degli ssd che vede questa vicinanza

1720702293396.png

un ssd così, lo evita.
g) Passando alla lettura di un file più grande (1MB, cioè quello che crystaldiskmark chiama test sequenziale) senza coda è buonissimo
h) aggiungendo 1MB con coda rimane buono
i) la scrittura sequenziale (1MB) senza coda, soffre ancora di una alta latenza delle celle (vedi d,e,f)
l) idem la scrittura di 1MB con un poco di coda di comandi

Il commento del recensore:

La latenza di lettura casuale è nella media, mentre la latenza di scrittura casuale è tra le peggiori. Ciò è dovuto in parte al controller, che non sarà potente quanto i design a 8 canali con DRAM dedicata. C'è anche il fatto che la flash è un design a sei piani, il che migliora la larghezza di banda per die ma non necessariamente la latenza. Naturalmente, i compromessi hardware valgono la pena, poiché questa combinazione è piuttosto efficiente dal punto di vista energetico.


Colpa del controller e delle nand insieme?
Comunque secondo me le basse scritture I/0 non sono un problema; l'ssd deve essere forte in lettura casuale e sequenziale e in scrittura sequenziale, per uso vario e gaming.

Le Prestazioni di scrittura sostenute e recupero della cache e il consumo energetiche sono quei test più "professionali" che sono per noi utenti difficili da eseguire (ci vuole un software a pagamento, o comunque IOMeter è free ma complicato) e un misuratore che discrimini l'ssd dal resto dell'hardware.

Il test di scrittura sostenuta prende l'ssd e lo riempie progressivamente di blocchi da 1MB fino a saturazione (4TB in questo caso).
LA prima velocità è quella dalla cache pSLC poi dopo un tot di secondi (ricordando sempre che quì l'ssd è vergine) la cache non accoglie più dati e l'ssd inizia a scrivere in TLC e contemporaneamente a svuotare la cache per poter recuperare spazio SLC.
Le tre operazioni contemporanee: scrivere TLC, cancellare la cache, scrivere sulla cache svuotata, determinano un cale consistente della media della scrittura con picchi intermedi che corrispondono a porzioni limitate di scrittura nuovamente sulla cache SLC.
I secondi in cui scrive al massimo, dicono quanto è grande la cache pSLC di scrittura (su ssd vuoto)
In questo caso

1720704266683.png


120 secondi ad una media di 6000 MB/s sono un bel po di GB.. 700 GB circa.
Vuol dire che da nuovo questo 4TB ha una cache 2100 GB di celle TLC ovvero posso scrivere metà ssd prima che la cache pSLC risenta (cioè si riduca) del riempirsi dei dati.

Il test di consumo energetico è e sarà sempre più importante, come qualsiasi CPU anche il controller dovrà nel futuro essere più potente, riducendo il calore.
Il risultato del test:

L'NM790 è incredibilmente efficiente dal punto di vista energetico. Questo è solo uno dei motivi per cui c'è stata così tanta attesa per unità più veloci e senza DRAM nello spazio 4.0. Puoi ottenere prestazioni di fascia alta con grande efficienza ed è ottimo anche per i laptop, soprattutto perché è monofacciale. La flash più densa aiuta anche ad aumentare la capacità, il che rende l'intero pacchetto ancora più attraente se ha il prezzo giusto.
Un minor consumo di energia di solito si traduce anche in temperature più basse. L'NM790 ha raggiunto il picco sotto i 70 °C nei nostri test, ben al di fuori dell'intervallo di temperatura critica. Dovrebbe funzionare alla grande nei laptop e ottenere 4 TB senza ricorrere a QLC è una vittoria enorme per quel segmento.


dice tutto.

In definitiva, basandosi solo sulla recensione di THW com'è questo ssd?
Gestione energetica eccellente tipica dei DRAMless con calore contenuto. Sono gli nvme 4.0 ideali da laptop perchè i "normali" pcie 4.0 scaldano troppo e verrebbero cappati dal thermal throttling.
Ottime prestazioni di lettura ma a livello dei migliori nvme 4.0 che la recensione omette.
Scrittura sequenziale normale MA essendo DRAMless (HMB) nella realtà non detta dai bench soffrirà di basse prestazioni durante l'uso.
Scrittura casuale incerta ma che non determina una bocciatura.

Compro un Renagade un Firecuda o un P41 e spendo di più per avere la stessa cosa?

Da utente Office, Gamer, si.
Da utente entusiast vedo che non ho differenze di prestazioni ma SO che non ho un prodotto migliore.
Da utente di laptop ho quello che non protrei avere con gli altri.
Da utente che lavora con il pc e fa grafica, video, ecc.: questi ssd non si guardano neanche perchè 100% si avranno problemi prestazionali.


Quindi si può pensare che tali test si possano ritenere attendibili, giusto? E il fatto che consiglino un tal ssd rispetto ad un tal altro non è solo speculazione "di interesse markettaro"…? E in effetti in altri siti invece si nota in maniera alquanto evidente questa tendenza pubblicitaria mascherata da recensione… 😅😅
Alla base c'è sempre un link all'acquisto ma come un quotidiano, si acquista, si mantengono gli stipendi di chi ci lavora e in cambio (loro) mantengono una certa serietà. THW è diventata autorevole grazie a recensori professionisti esterni che sono presenti su altre testate poi. Quando ci sono bug o cose che non vanno, THW non è stata a guardare; magari ha minimizzato, ma il dovere di cronaca l'ha sempre fatto.

La pluralità è la tua/nostra salvezza. Leggi. Leggi più di una recensione. Anche di paesi diversi.
 
Ultima modifica:
ljQuestione OP direi che tutto sommato serve di nuovo per gli nvme specie con grande cache pSLC.
In previsione del futuro dell'ssd, diciamo che evita che, riempiendolo troppo, si limiti poi altrettanto quella cache che rende l'ssd nvme TLC alle massime prestazioni (per gli ssd QLC direi che è quasi indispensabile usarlo).
Insomma, a compendio di quanto dicevamo nell’altra discussione, non solo partizionare gli ssd non comporta cali di prestazione, ma è addirittura necessario farlo per ampliare lo spazio di OP riservato di fabbrica! Tra l’altro, se non ricordo male visto che parliamo di una quindicina di anni fa, sui primi ssd era stato messo in evidenza che lasciare un ulteriore (rispetto a quello di fabbrica) 10% di spazio non allocato era molto più efficace rispetto a lasciare lo stesso spazio semplicemente vuoto (quindi formattato e nel caso scrivibile) perché simulava l’OP di fabbrica.

Allora, innanzitutto ho un forte dubbio che questi test di THW rispecchino poi la realtà, per un semplice motivo: THW recensisce degli ssd vuoti quando ormai tutto l'apparato si basa proprio sull'equilibrio di cui parlavo sopra. La cache slc in scrittura rende tutti i modelli velocissimi nello stesso modo.
Ecco, il mio dubbio era proprio questo 😉 grazie per la conferma.

le vere cose da guardare sono le cose che succedono attorno: firmware mal fatti, bug, difetti nelle velocità dovute a prestazioni per determinati carichi, controller che scaldano in modo anomalo, ecc. Le cose da guardare sono i commenti degli utenti e cosa ne viene fuori...
E queste sono le cose più ardue da reperire: non ne saltano fuori molte di esperienze dirette degli utenti finali - tranne quando ci sono problematiche evidenti su un gran numero di esemplari.

Se ad esempio si guarda proprio Lexar NM790, mi chiedo come un nvme HMB riesca ad avere prestazioni di scrittura uguali ad un nvme con DRAM (?)
Ciò non è proprio possibile in scrittura sequenziale e se succede nel bench è... perchè il bench non è in grado di farlo vedere; andrebbe ristudiato.
Beh, o hanno trovato l’uovo di Colombo o è valida la tua seconda ipotesi 😉 Ottima analisi dettagliata nello spoiler!

Componenti uguali non vuol dire che hai la stessa qualità o prestazioni a meno che non vengano dalla stessa fabbrica (?) e non siano rimarchiati.

Vale per i vari Kingston, uguali ai Sabrent, o Seagate, o Corsair o 2 o 3 altri assemblatori.
Tornando ad un ulteriore esempio specifico, tra gli ssd con DRAM a bordo, avendo individuato grazie alle conferme di @Real Black i componenti più affidabili tra gli ssd analizzati, come fare al meglio la cernita finale che conduce al prodotto specifico da acquistare?
Abbiamo il FireCuda 530, il Fury Renegade e il Gigabyte Aorus 7000s che usano gli stessi componenti (in particolare NAND flash Micron 176L TLC e controller Phison E18): in base a cosa scegliere l’uno o l’altro? @Liupen anche le recensioni che ho trovato sono fonti diverse e quindi non del tutto confrontabili…
 
in base a cosa scegliere l’uno o l’altro? @Liupen anche le recensioni che ho trovato sono fonti diverse e quindi non del tutto confrontabili…
Se vuoi andare oltre alle recensioni (perché se confronti quelle di Tom’s del Fury Renegade 2TB, FireCuda 530 2TB e Aorus 7000s 2TB sono identici in tutto gli SSD, tralasciando la cache SLC che la gestiscono in modo diverso - quello varia dal produttore - e da alcuni test fatti in condizioni diverse) dovresti cercare le esperienze degli utenti, e se cercassimo su Google comparirebbero così tanti risultati che saresti in gradi di trovare problemi per qualsiasi SSD esistente. Io la vedo una mossa stupida, soprattutto perché gli E18 con B47R sono bene o male uguali e non hanno segnalato problemi in generale (al massimo che il controller abbia un alto consumo energetico anche se non so se sia stata “risolta” la cosa) e anche perché ci sono sample usciti male mentre altri usciti meglio.

Se pensi che la cache SLC sia una cosa che ti interessi particolarmente basa la scelta dell’SSD su quella, altrimenti non mi preoccuperei. Ricorda che si parla sempre dello stesso tipo di cache (dinamica) e che le performance variano anche dalla profondità coda e thread.
 
Se pensi che la cache SLC sia una cosa che ti interessi particolarmente basa la scelta dell’SSD su quella, altrimenti non mi preoccuperei. Ricorda che si parla sempre dello stesso tipo di cache (dinamica) e che le performance variano anche dalla profondità coda e thread.
Ma per reperire il valore della cache bisogna necessariamente fidarsi delle recensioni? Come mai non è riportato nelle specifiche dei produttori? Sarebbe stato molto più semplice averli sott’occhio i dati…

Come ulteriore piccola differenza tra i tre, il Gigabyte risulta essere leggermente più lento nelle letture casuali ed è quello che riporta velocità più castrate nel taglio da 1Tb…

EDIT: sorry, mi riferivo all’Aorus 7300 e non al 7000s, anche se l’unica differenza sembra essere solo la maggiore velocità di lettura sequenziale.
 
Ultima modifica:
Anche perché le dimensioni della cache si dovrebbero evincere dal decadimento della velocità di scrittura in sequenza…
1) Aorus 7000s
L3yjcFkorD4rY7WEtB9Tx-1200-80.png.webp


2) Renegade
KEUbQunNgwnzhn3KPJ2ace-1200-80.png.webp


3) FireCuda 530
aoiVi9qnNLBF8Wqe8zsRtL-1200-80.png.webp


Ma sono valori affidabili? Se si osservano gli ultimi due grafici, ad esempio, si evince che nel 2) il Sabrent Rocket 4 ha un andamento diverso da quello riportato nel 3) dove coincide con quanto raffigurato dal FireCuda 530…
Discorso simile si può fare per gli altri grafici con i punteggi dei bench e dei tempi di caricamento dei giochi dove i vari SSD riportati a confronto hanno un punteggio e un tempo diverso in base al prodotto recensito col quale si confrontano:
A)
BARkq75LzBSxdTpXig2Pkn-1200-80.png

B)
DtS8eZY4tREFzrqj2VMMhX-1200-80.png.webp

Nel grafico A) l’Aorus ha un tempo di 9.3, ma nel grafico B) lo stesso ssd ottiene un tempo di 12.17 perché è confrontato con il FireCuda protagonista della recensione;
Il Samsung 980pro segna 9.89 in A) ma ben 12.82 in B); e via dicendo…

Insomma, un bel calderone di dati casuali mascherato dall’apparenza di grafici ordinati? Certo in parte c’è anche da considerare che da un processore di gen 11 si è passati ad uno di gen 12, ma almeno i valori della cache dell’SSD non dovrebbe cmq essere sovrapponibile sui vari sistemi che utilizzano cmq il protocollo PCI-Express 4.0?
 
Ultima modifica da un moderatore:
Ma per reperire il valore della cache bisogna necessariamente fidarsi delle recensioni? Come mai non è riportato nelle specifiche dei produttori? Sarebbe stato molto più semplice averli sott’occhio i dati…
Solitamente le recensioni sono la fonte migliore ma alcuni produttori la scrivono anche nelle specifiche tecniche, come Samsung. Anzi, forse solo lei lo fa (in questo caso Samsung uso una cache SLC TurboWrite, ossia ibrida, sia statica che dinamica)…
Come ulteriore piccola differenza tra i tre, il Gigabyte risulta essere leggermente più lento nelle letture casuali ed è quello che riporta velocità più castrate nel taglio da 1Tb…
I test son stati fatti con QD e thread diversi probabilmente, non sono comparabili tra di loro.
Ma sono valori affidabili? Se si osservano gli ultimi due grafici, ad esempio, si evince che nel 2) il Sabrent Rocket 4 ha un andamento diverso da quello riportato nel 3) dove coincide con quanto raffigurato dal FireCuda 530…
Come ho già detto i produttori gestiscono in modo diverso la cache SLC, anche a parità di hardware. Il motivo per il quale il Rocket 4 Plus è perché tu l’hai comparato al Rocket 4 Plus-G, SSD diverso, e anche perché all’inizio il Rocket 4 Plus l’hanno emesso sul mercato con le NAND a 96L di Kioxia (BiCS4) le quali performano a 57 MB/s per die contro i ~160 MB/s delle B47R.
 
Come ho già detto i produttori gestiscono in modo diverso la cache SLC, anche a parità di hardware. Il motivo per il quale il Rocket 4 Plus è perché tu l’hai comparato al Rocket 4 Plus-G, SSD diverso, e anche perché all’inizio il Rocket 4 Plus l’hanno emesso sul mercato con le NAND a 96L di Kioxia (BiCS4) le quali performano a 57 MB/s per die contro i ~160 MB/s delle B47R.
Hai ragione, non avevo fatto caso alla diversa denominazione del 4 plus e del 4 plus-G; però se guardi bene l’andamento del Rocket 4 plus-G nel grafico 2 coincide quasi esattamente con l’andamento del FireCuda nel grafico 3: alquanto strana la cosa, no?

I test son stati fatti con QD e thread diversi probabilmente, non sono comparabili tra di loro.
Beh, questo conferma l’inutilità oggettiva di tutti questi "bei test": se non sono paragonabili a cos’altro servono se non a vetrina pubblicitaria del prodotto in analisi?
E la cosa bizzarra è che variano i risultati numerici di ogni grafico per singolo SSD messo a confronto in tempi diversi con gli altri. Se per esempio ti vai a vedere i valori dell’efficienza si tocca proprio l’apoteosi: per uno stesso SSD, nonostante vengano riportati i medesimi valori di consumo massimo, medio e in idle, a seconda del modello col quale lo confrontano tirano fuori numeri diversi dei MBps per Watt!
Per semplicità di consultazione, di seguito riporto solo i grafici dei valori del consumo medio, (quelli del consumo max e in idle sono facilmente reperibili nelle recensioni pubblicate): il Samsung 980Pro 2Tb 3.74 W in entrambe le recensioni

k4TuZRZYQgjHscnj2SbXSo-1200-80.png.webp

Dq7edhbzwvS4T9UzNk7mjM-1200-80.png.webp



Ma poi in Efficienza ha 325 MBps per Watt in una recensione e 419 nell’altra!
KKZVGxiMsdLxU2qdm6FcNo-1200-80.png.webp

5guZVBmrGXuCNHeU8GnyaM-1200-80.png.webp

Quindi come si vede il Samsung 980Pro 2Tb riporta un consumo medio di 3.74 W in entrambe le recensioni (stessa cosa per il consumo massimo di 6.15 W e in idle di 760 mW), ma poi in Efficienza ha 325 MBps per Watt in una recensione e 419 MBps per Watt nell’altra! che è la stessa differenza di circa 100 MBps per Watt riportata tra l’Aorus e il FireCuda nelle rispettive recensioni…
È più o meno come se stimassi in due prove diverse sullo stesso numero di km percorsi il consumo medio di una macchina ottenendo il medesimo risultato (ad esempio di 15 km a litro) e in un’occasione le assegno un punteggio di 344 stelline e nell’altra situazione le assegnassi un valore di 455 stelline!
Un test serio per essere tale dovrebbe essere replicabile e confrontabile anche su piattaforme diverse da altre persone e in altri luoghi! Se invece non è neanche confrontabile con gli stessi test eseguiti dalla medesima testata che lo ha svolto in precedenza! Cosa bisogna pensare, che si tratta solo di fuffa pubblicitaria imbellettata in grafici scenografici da fumo negli occhi? 😉
 
Ultima modifica da un moderatore:
Solitamente le recensioni sono la fonte migliore ma alcuni produttori la scrivono anche nelle specifiche tecniche, come Samsung. Anzi, forse solo lei lo fa (in questo caso Samsung uso una cache SLC TurboWrite, ossia ibrida, sia statica che dinamica)…
E se prendessi proprio un Samsung 980pro o meglio ancora un 990Pro (con tutti i componenti in casa), sarebbero giustificati questi ulteriori 20€ in più rispetto ai tre E18 con B47R? Hanno risolto i problemi di firmware che erano stati segnalati?
 
Un test serio per essere tale dovrebbe essere replicabile e confrontabile anche su piattaforme diverse da altre persone e in altri luoghi! Se invece non è neanche confrontabile con gli stessi test eseguiti dalla medesima testata che lo ha svolto in precedenza! Cosa bisogna pensare, che si tratta solo di fuffa pubblicitaria imbellettata in grafici scenografici da fumo negli occhi? 😉

Beh, questo conferma l’inutilità oggettiva di tutti questi "bei test": se non sono paragonabili a cos’altro servono se non a vetrina pubblicitaria del prodotto in analisi?
Purtroppo tutti i torti non hai...

THW (e/o Anandtech) è però una delle migliori fonti per conoscere come sono fatti dentro questi dispositivi, quindi una certa utilità ce l'hanno; questo, unito ad un occhio critico per le recensioni e all'attenzione verso difetti in cui incappano clienti/utenti, ci danno una visione generale sui diversi prodotti.

Ci sono delle incongruenze nei dati dei loro test, sbagliano (li hanno già colti in castagna, come quando uscirono che un ssd consumava più energia di un hdd) e... sbaglieranno.

Il mondo degli "espertissimi" per quanto riguarda gli ssd è di pochi soggetti (ovviamente non conto ricercatori universitari, tecnici delle aziende produttrici... che però sono invisibili, se non scrivono); come il mondo dei medici, non si contraddicono, piuttosto cercano e creano una linea comune, una oligarchia del sapere tecnico-giornalistico.


@Liupen anche le recensioni che ho trovato sono fonti diverse e quindi non del tutto confrontabili…

Ripeto: usali come fonti per trarne (criticamente) degli elementi.
Cose più "certe" a mio parere sono poi i difetti riscontrati dagli acquirenti che portano a mettere una croce sopra modelli problematici.


Insomma, a compendio di quanto dicevamo nell’altra discussione, non solo partizionare gli ssd non comporta cali di prestazione, ma è addirittura necessario farlo per ampliare lo spazio di OP riservato di fabbrica! Tra l’altro, se non ricordo male visto che parliamo di una quindicina di anni fa, sui primi ssd era stato messo in evidenza che lasciare un ulteriore (rispetto a quello di fabbrica) 10% di spazio non allocato era molto più efficace rispetto a lasciare lo stesso spazio semplicemente vuoto (quindi formattato e nel caso scrivibile) perché simulava l’OP di fabbrica.

Si, anche se proprio necessario (partizionare) non è, l'importante (comunque lo si faccia) è lasciare GB liberi... e per il controller, e per la cache che, se le celle sono TLC, occupa 3 volte la dimensione dello spazio "normale" dell'ssd.
Quello spazio consigliato del 10%, quindici anni fà, aveva anche altre ragioni d'essere.
L'ssd di 15 anni fà era un prodotto molto costoso, si può dire agli albori commerciali, piccolo (60-120GB), soprattutto questo, l'OP era il metodo diretto per allungare la vita operativa dei dispositivi.

Oggi, dopo anni che poi si è capito che tra OP di fabbrica e buona durata delle celle, sembrava non esser più necessario, ridiventa importante, penso, ai fini del mantenimento del tempo delle prestazioni, perchè una cache di scrittura che funziona male, influisce su tutte le prestazioni.

Ma per reperire il valore della cache bisogna necessariamente fidarsi delle recensioni? Come mai non è riportato nelle specifiche dei produttori? Sarebbe stato molto più semplice averli sott’occhio i dati…

Sarebbe utile ma alla fine anche se un acquirente lo trovasse scritto non gli direbbe niente... la cosa importante è la velocità sequenziale di scrittura, cioè l'effetto della cache, e quella è ben evidenziata! ;)


Sul bug Samsung, Samsung come sempre non fà comunicati ufficiali o "chiusure della pratica" e neanche si sa per certo in cosa è consistita questa aggiustatura del firmware.
Ora i modelli ne sono esenti, siamo alla versione 4 di quel fw correttivo.
 
Ultima modifica:
Il mondo degli "espertissimi" per quanto riguarda gli ssd è di pochi soggetti (ovviamente non conto ricercatori universitari, tecnici delle aziende produttrici... che però sono invisibili, se non scrivono); come il mondo dei medici, non si contraddicono, piuttosto cercano e creano una linea comune, una oligarchia del sapere tecnico-giornalistico.
E pure questo è vero! Purtroppo però questa "oligarchia del sapere" (spesso) va a scapito degli utenti finali, che vengono colpiti nei loro portafogli o sulla loro salute.

Ripeto: usali come fonti per trarne (criticamente) degli elementi.
Cose più "certe" a mio parere sono poi i difetti riscontrati dagli acquirenti che portano a mettere una croce sopra modelli problematici.
Concordo: bisogna leggere attentamente tra le righe per cogliere quanto si sta cercando (anche se in alcuni casi ci si trova di fronte ad un copia-incolla in cui viene cambiato solo l’elemento principale… ma vabbè, l’impianto è quello e devono pur risparmiare tempo!).
Su questi modelli ristretti dalla cernita finale pare non ci siano grosse problematiche (giusto?), qualche guasto più numeroso a distanza di qualche anno l’ho letto sull’Aorus 7000s (il 7300 è più recente e non si trova quasi nulla sul suo conto, neanche recensioni)…

Si, anche se proprio necessario (partizionare) non è, l'importante (comunque lo si faccia) è lasciare GB liberi... e per il controller, e per la cache che, se le celle sono TLC, occupa 3 volte la dimensione dello spazio "normale" dell'ssd.
Quello spazio consigliato del 10%, quindici anni fà, aveva anche altre ragioni d'essere.
L'ssd di 15 anni fà era un prodotto molto costoso, si può dire agli albori commerciali, piccolo (60-120GB), soprattutto questo, l'OP era il metodo diretto per allungare la vita operativa dei dispositivi.

Oggi, dopo anni che poi si è capito che tra OP di fabbrica e buona durata delle celle, sembrava non esser più necessario, ridiventa importante, penso, ai fini del mantenimento del tempo delle prestazioni, perchè una cache di scrittura che funziona male, influisce su tutte le prestazioni.
Perfetto, grazie per la spiegazione.
Bei tempi quelli pionieristici: passare dall’hdd all’ssd ti faceva rinascere il pc! E, come hai scritto, l’OP lo si faceva sia per mantenere le prestazioni sia per allungare la vita di un componente così costoso…

Peccato che oggi gli NVMe non usino la DRAM come cache, altrimenti si sarebbe risolto anche questo problema del calo delle prestazioni nel tempo! Mi auguro che ci stiano già lavorando in questa direzione…

Vabbè, potrebbe anche essere saggio saltare anche questa generazione di Samsung, in fondo non è che sia molto più performante (almeno non in maniera eclatante) degli altri top 😉

@sunmoonking
per cortesia, usa lo spoiler per inseire le immagini dei grafici
Sorry, mi era sfuggito! Ci starò attento.
 
Pubblicità
Pubblicità
Indietro
Top