PROBLEMA Sostituzione NAS Dlink DSL 320L

Pubblicità
Mi trovo d'accordo su tutto!

Allora farò così:
Volume 1: Archivio (70 GB occupati) lo creo da 120

Volume 2: File condivisi: come ha detto tu 350 Gb e vediamo se basta

Volume 3 ABB: 450 GB e poi si vede se basta

Volume 4 SynologyNAS: dove installo i pacchetti (Snaphost replication e cose varie)

Abbiamo detto che quindi se installo il package Snapshot Replication su Volume 4 poi ogni snapshot fisicamente sarà sul volume di interesse.
Per esempio snapshot Archvio su volume 1 e snapshot File condivisi su Volume 2

Prima di fare tutto ciò devo eliminare tutti i volumi, voglio ripartire d'accapo, evitando di ripstinare il NAS.

togli quegli snapshot immutabili, non ti servono, snapshot normali e via
Non servono immutabili?
gli snapshot non vengono backuppati, inoltre io non fare backup della cartella di ABB, già quello è un backup dei PC, che ti frega di farne il backup su disco esterno? Se poi hai spazio fai pure, magari metti due task hyperbackup, uno settimanale che fa solo i backup della cartella di ABB e retention di 1 solo punto di ripristino, e uno giornaliero per le cartelle dati con le retention lunghe
si potrebbe andare bene come retention.

Quante versioni posso conservare su un disco esterno SSD da 2 TB?

Ha senso poi successivamente impostare un backup dal Synology verso il Vecchio Dlink (2 TB) di tutto il NAS tramite HyperBackup?

Visto che hai un NAS che lo supporta, potresti installar edirectory server sul synology e farlo funzionare da controller di dominio, non so se hai pratica con il dominio active directory di windows
Ho poca dimestichezza con Active Directory, ma posso provarlo prima in macchina virtuale.. In effetti se fa da contorller di dominio non è mmale come cosa... L'unica domanda: se un giorno si rompe il NAS i PC non possono più accedere in mancanza del controller di dominio?
Se metti un buon ups con cavo usb di monitoraggio, puoi monitorarlo direttamente da synology (control panel - power - ups)
Ottima cosa, ha già due UPS APC, potrei collegare alla porta USB del NAS l'UPS a cui è collegato e creare un allarme?

Ho scoperto poco fa che in realtà essendo collegato all'UPS non si è spento, per fortuna.
 
Abbiamo detto che quindi se installo il package Snapshot Replication su Volume 4 poi ogni snapshot fisicamente sarà sul volume di interesse.
Per esempio snapshot Archvio su volume 1 e snapshot File condivisi su Volume 2
Hai dato un'occhiata ai link che ti ho messo per capire come funziona un file system CoW (BTRFS è CoW) e come funzionano gli snapshot? Sono per forza sullo stesso volume



Non servono immutabili?
Gli snapshot PER ME sono giusto dei punto giornalieri di ripristino, a notte si fa il backup e quello è la vera sicurezza


Quante versioni posso conservare su un disco esterno SSD da 2 TB?
boh, dipende da quanta compressione c'è, da quanta deduplication c'è, da quanti dati vengono modificati ogni giorno, inizia con un 30ina di respore point secondo me ci stai alla grande

Ha senso poi successivamente impostare un backup dal Synology verso il Vecchio Dlink (2 TB) di tutto il NAS tramite HyperBackup?
Un secondo backup non si butta mai via


Ho poca dimestichezza con Active Directory, ma posso provarlo prima in macchina virtuale.. In effetti se fa da contorller di dominio non è mmale come cosa... L'unica domanda: se un giorno si rompe il NAS i PC non possono più accedere in mancanza del controller di dominio?
Windows tiene cache delle password anche di dominio, quindi l'utente abituale può fare l'accesso al PC, ovviamente non funzionano i serviz idi dominio


Ottima cosa, ha già due UPS APC, potrei collegare alla porta USB del NAS l'UPS a cui è collegato e creare un allarme?
colleghi il data cable usb dal ups al nas synology poi nas synology - control panel - power - ups, abiliti e t elo dovrebbe riconoscere

Ho scoperto poco fa che in realtà essendo collegato all'UPS non si è spento, per fortuna.
San UPS
 
Si ho avuto modo di dare un occhio al link che mi hai mandato su come funzionano i FS CoW, ti ringrazio.
in merito a questo, secondo te, nella cartella condivisa su Volume 1 Archvio e nella Volume 2 File condivisi è necessario attivare l'opzione WORM?

1751052482009.webp

che ne pensi?
 
Ultima modifica:
write once read many
sai che cos'è?
chiaramente non devi usarla
 
ho capito che è una tecnologia per evitare la riscrittura dei dati, pensavo fosse utile solo nell'Archvio dato che per obblighi legali serve che lo conservi per almeno 5-7 anni... Forse ho capito male io, ma pensavo fosse questo.

Quindi non è necessario configurarla su entrambi i volumi dove risiedono i dati, giusto? In quali casi invece è utile?

Perdona l'ignoranza in merito...
 
PS: lo dico perchè avevo letto questo sul web:

NAS Synology – Proteggere dati di produzione e backup​

Per mettere al sicuro dati e copie di sicurezza sta diventando sempre più rilevante l’adozione di piattaforme che consentono di archiviare le informazioni in modo immutabile.
I NAS Synology con DSM 7.2 rendono disponibili soluzioni e schemi di protezione tramite WORM (Write Once, Read Many). Dopo aver abilitato questa funzionalità, i dati nelle cartelle condivise possono solo essere scritti e non possono essere eliminati o modificati, per garantire l’integrità dei dati. Per assicurare integrità e immutabilità è possibile usare WORM, ideale per proteggere record e dati sensibili, in modo che non vengano sovrascritti e possano essere salvati come riferimento per un uso futuro.
L’immutabilità dei dati consente di limitare i potenziali danni da ransowmare. In caso di simili minacce, capaci di crittografare intere archivi, i dati risulteranno inalterabili. Ciò rende i backup inattaccabili da virus e malware. Le funzionalità WORM possono dunque essere combinate con una granulare politica di sicurezza per innalzare il grado di protezione dei dati, per condivisioni di rete e procedure di backup a prova di attacco.


In generale, la tecnologia WORM serve da ulteriore livello di protezione, proteggendo risorse preziose come la proprietà intellettuale e i segreti commerciali da accessi non autorizzati e potenziali violazioni dei dati. Non solo, garantisce la conformità in settori come la finanza e la sanità, dove l’archiviazione immutabile dei dati è obbligatoria per una maggiore sicurezza e privacy. Serve inoltre come protezione attiva dei file, contro alterazioni non autorizzate o modifiche accidentali ai documenti aziendali critici.
Adottando Synology WriteOnce, le aziende possono proteggere i propri dati da accessi non autorizzati, alterazioni e rischi di conformità, garantendo che le informazioni critiche rimangano invulnerabili alle manomissioni."


ed effetivamente nua volta che lui ha messo in archivio i documenti dei clienti, non dovrebbe mai cancellarli e / o modificarli.

non ti torna?

Pensavo fosse solo per il volume 1 Archvio necessario...
Anche se posso impostare il periodo WORM (30,90,365 giorni)
però questo poi vuol dire che non potrà mmai cancellare degli archivi vecchi, giustamente forse non è l'ozpione migliore, basta il backup esterno oltre le snapshot...

te l'ho chiesto solo perchè mi sembrava che fosse adatto a questo caso in quanto lui ha la necessità di conservare questi dati per almeno 5 anni e pensavo che il WORM fosse dedicat a questo, ovvero a evitare manomissioni di ogni tipo, ma magari ho capito male io, oppure non è il caso di attivarlo per altri motivi... Accetto come sempre consigli basati sulla tua esperienza...
 
Ultima modifica:
ciao @r3dl4nce

volevo dirti che ho configurato il NAS correttamente, e non ho messo nessuna opzione WORM, in quanto ho capito che effettivamente non serve, sulle cartelle condivise ho messo solo il checksum che ritengo utile, che ne pensi?

Al momento ho impostato 2 snapshot ogni 8 ore su entrambi i volumi Archivio e File condivisi con un periodo di conservazione di 5 giorni, ma ci sto riflettendo se mi serve o meno. Sto pensando che forse è meglio, come mi suggeristi tu, di fare più snasphot durante il giorno e cancellarle il giorno successivo, servono solo a recuperare qualcosa di recente, effettivamente.
Non ho messo l'impostazione delle snapshot non modificabili in quanto

Come mi hai suggerito ho impostato un Volume per ABB e un Volume di Sistema per i pacchetti.

ho usato un approccio super conservativo e lo spazio occupato al momento è questo:

1751715471186.webp

Si devo aumentare il volume ABB... ABB l'ho impostato un backup ogni giorno alle 19:30, forse dovrei farne un'altro alle 13:00 quando vanno in pausa pranzo?​


HyperBackup: l'ho scaricato e voglio fare un backup completo su disco esterno SSD da 2 TB... Che differenza c'è tra HypeBackup e USB Copy?
 
ed effetivamente nua volta che lui ha messo in archivio i documenti dei clienti, non dovrebbe mai cancellarli e / o modificarli.
Intanto il GDPR automaticamente smentisce questa affermazione, dato che il cliente ha il diritto all'oblio, passate la conservazione per i tempi previsti dalla legge.
Comunque io non utilizzo per i miei clienti questa funzionalità, ma se te la trovi utile, valutala pure.



sulle cartelle condivise ho messo solo il checksum che ritengo utile, che ne pensi?
sì quella è una funziona di BTRFS, generalmente su cartelle dati la tengo sempre attiva
Chissà se un domani synology avrà voglia di portare ZFS sui NAS, anche se non mi sembra ne abbiano l'intenzione
Comunque anche BTRFS come checksumming e self-healing ormai è abbastanza valido


Al momento ho impostato 2 snapshot ogni 8 ore su entrambi i volumi Archivio e File condivisi con un periodo di conservazione di 5 giorni, ma ci sto riflettendo se mi serve o meno. Sto pensando che forse è meglio, come mi suggeristi tu, di fare più snasphot durante il giorno e cancellarle il giorno successivo, servono solo a recuperare qualcosa di recente, effettivamente.
Io li uso con questa modalità, in caso di recupero file cancellati per sbaglio principalmente, anche se al 90% c'è il #recycle e si recuperano da lì


ho usato un approccio super conservativo e lo spazio occupato al momento è questo:

Io amplierei il Volume 2 per portarlo a un'occupazione del 50%, dati che sembra quello più utilizzato, è bene che ci sia spazio
Chiaramente devi incrementare il volume 3, a occhio e croce lo porterei almeno a 400GB
Hai attivato la compressione da ABB? Così ti occupa meno spazio

1751880553166.webp




Visualizza allegato 495677

Si devo aumentare il volume ABB... ABB l'ho impostato un backup ogni giorno alle 19:30, forse dovrei farne un'altro alle 13:00 quando vanno in pausa pranzo?​


Se hai gli snapshot, non credo ce ne sia bisogno, no nstar etroppo a fasciarti la testa...


HyperBackup: l'ho scaricato e voglio fare un backup completo su disco esterno SSD da 2 TB... Che differenza c'è tra HypeBackup e USB Copy?

USB Copy fa quello che dice il nome, fa la copia di cartelle condivise su un supporto esterno, senza versioning, senza compressione, ecc
Hyperbackup è molto più avanzato e completo
 
Ciao @r3dl4nce,

grazie per le indicazioni.

sì quella è una funziona di BTRFS, generalmente su cartelle dati la tengo sempre attiva
Chissà se un domani synology avrà voglia di portare ZFS sui NAS, anche se non mi sembra ne abbiano l'intenzione
Comunque anche BTRFS come checksumming e self-healing ormai è abbastanza valido
d'accordissimo con te, molto solido il BRTFS.

Io amplierei il Volume 2 per portarlo a un'occupazione del 50%, dati che sembra quello più utilizzato, è bene che ci sia spazio
Chiaramente devi incrementare il volume 3, a occhio e croce lo porterei almeno a 400GB
Hai attivato la compressione da ABB? Così ti occupa meno spazio

1753634431212.webp


In realtà ho aumentato a 500 GB ma vedo nel grafico di ABB che ogni tot trasferisce più di 100 GB come se facesse il backup totale di nuovo, sbaglio?

1753634131958.webp

1753637951821.webp

Forse magari sono proprio i dati trattati e non i dati spostati.

Si ho attivato la compressione

1753634170988.webp

va bene così?
USB Copy fa quello che dice il nome, fa la copia di cartelle condivise su un supporto esterno, senza versioning, senza compressione, ecc
Hyperbackup è molto più avanzato e completo
Infatti ho seguito il tuo consiglio e ho usato HyperBackup, davvero potentissimo!

Ho un SSD Esterno da 2 TB che ho fatto collegare alla porta usb del NAS e faccio il backup giornaliero, però non ho attivato la crittografia in quanto ho una domanda: crittografo solo il backup della cartella synology o si crittografa l'intero disco?

Inoltre ho un'ultima domanda, al momento il backup è sull'SSD esterno da 2 TB e lui non vuole uplodare nulla in cloud.. al momento c'è anche il vecchio DLINK NAS che ha 2 dischi da 2 TB WD RED, posso impostare un backup rsync verso questo NAS?
Sto cercando un modo per fargli fare un backup al di fuori della LAN, creandogli magari una VPN e portandosi a casa il Dlink magari HyperBackup può fare un backup dall'ufficio dal nas Synology a casa sul Nas Dlink, sarebbe troppo complicato?

Vorrei fargli avere un backup off-site... O meglio acquistare un'altro synology da mettere a casa e montargli i dischi da 2 TB del Dlink?
 
Ultima modifica:
Un dubbio: dato che da domani va in ferie. E spegnerà tutti i client, ABB manterrà le versioni precedenti o col passare dei giorni cancellerà le versioni precedenti? Cioè tra 10 giorni che riapre avrà la disponibilità dei backup di ABB di questi giorni?
 
Chiaramente in data retention contano solo i giorni con backup effettuati
 
Ciao @r3dl4nce,
è ormai più di 1 mese che gli ho implementato il synology configurando ABB e le snapshot, però noto una cosa, che non riesco a capire:

1757253150120.webp
come mai il server-pc ha trasferito tutti questi giga? è solo il totale da quando ABB fa i backup?

non riesco a capire per esempio qui:
1757253296796.webp

Vuol dire che il 26/08 tutti i pc hanno trasferito 114,5 GB verso il NAS? Non mi risulta che abbiano movimentato 114 GB di dati? Potrebbe essere che sul pc server c'è una vmdk di una macchina virtuale di circa 35 GB e ABB la tarsferisce sempre di nuovo ogni volta?

Giusto per capire come interpretare questi dati, anche perchè ho messo l'allarme sul NAS se vengono trasferiti più di 15 GB in un dato intervallo di tempo di avvisarmi tramite mail..

Grazie ancora della tua pazienza nel seguirmi.
 
Chiaramente un disco virtuale cambia di continuo se la VM è accesa quindi ABB trasferisce tutto il contenuto.
 
1757258572665.webp

si infatti ho notato che questo PC; dove sta la VM trasferisce tutti sti GB.. quindi non è ABB che fa d'accapo un backup totale, giusto?

Non sò quanto la usi, ma mi dice molto poco... quindi ci deve essere qualcosa su quel PC che cambia e ABB rileva e sottopone a backup, giusto? Da ABB non posso vedere cosa è?
 
Chiaramente un disco virtuale cambia di continuo se la VM è accesa quindi ABB trasferisce tutto il contenuto.
Ciao,
la cosa strana è che lui questa VM non la usa quasi mai... ma anche tipo ieri sera ha spostato più di 57 GB di dati:

1758665477292.webp


Se noti salendo un pò nel thread dal 7 settembre a oggi i dati sono passati da 587,5 GB a 733 GB...

1758665588863.webp

Come faccio a analizzare cosa nello specifico sta trasferendo?

Intanto ora aumento il volume 3 di altri 70 GB circa, ma così rischio di saturare tutto lo spazio disponibile se non capisco il motivo di questo trend di crescita così elevato...

Attualmente lo spazio disponibile è questo:

1758665648915.webp

cosa posso fare?
 
Pubblicità
Pubblicità
Indietro
Top