Si lo so ma stavo guardando quello che combinava... sono simulazioni in VMware... la mia idea era di rivoluzionare dopo le ferie i miei serverini.
L'avevo intuito. Io preferisco usare i miei server di test in ditta, ma capisco che a casa magari non ce l'hai un hardware da usare come server test
Usavo VM per fare delle simulazioni...in piccolo...l'un idea era fare mettere Proxmox sui due server a casa e creare due nodi più un terzo come backup server... oppure due nodi e file system condiviso ... ma resto scoperto di backup e mi devo inventare qualcosa...
La prima opzione è quella corretta. Il file system condiviso (o meglio distribuito) Proxmox ce l'ha con CEPH principalmente, ma ti serve hardware con le palle (almeno 10G di connessione per CEPH, molta RAM, ecc).
Di buono c'è che su proxmox puoi replicare una VM su un secondo server se crei un cluster (questo per HA) oppure ti limiti a fare 2 server separati e il terzo lo imposti con proxmox backup server e ci tieni i backup completi delle VM, per cui in caso di guasto di un server reinstalli al volo proxmox e ripristini tutti i backup senza problemi
Una domanda, dato che non ho esperienza su Proxmox... normalmente te tieni anche l'os sotto zsf ? Pensavo ad una soluzione os su ext4 , gruppo lvm in raid 1 con container e vm secondo nodo identico ed eventualmente file system condiviso da nas per migrare tra i nodi.... poi penso al backup :))
Come scritto sopra, lascia perdere file system condiviso, ti rallenta di brutto. Puoi creare un cluster su 3 macchine e replicare da una all'altra se vuoi una situazione di HA.
Le mie installazioni più o meno standard sono così:
- Due SSD/NVME in RAID-1
- su questi installo Proxmox (pool rpool creato dall'installer con la root) però non usando tutto lo spazio, dall'installer puoi limitare lo spazio in uso, lascio circa 30GB per la root.
- su ogni ssd creo partizione di swap (tipo 8200) giusto per avee un minimo di swap incaso di saturazione RAM
- creo anche uno zram per lo swap, giusto un minimo, tipo 2GB, con priorità maggiore dello swap su SSD
- lo spazio rimasto sugli SSD lo partiziono (tipo BF01) e creo un ulteriore pool per le VM, tipo fastpool / ssdpool / chiamalo come vuoi
- N HDD per lo storage dati / documentale che non richieda accesso veloce, creo un pool in RAID-1 se sono 2 HDD, RAID-5 se sono più HDD o RAID-10 se ho meno necessità di spazio e ho 4+ HDD
- eventuali ulteriori SSD / NVME se serve più spazio per storage veloce, esempio database con MOLTI accessi veloci, sempre in RAID
Sul pool fastpool metto tutti i sistemi operativi delle VM, le installazioni dei software, ecc, sul pool hddpool i dati esempio condivisioni documentali, ecc. Se servono database o altre cartelle ad accesso veloce, metto nvme / ssd dedicati e in quel pool ci credo i dischi virtuali dove mettere questo storage
Esempio di un server con 2 SSD (rpool per sistema operativo debian/proxmox e ssdpool per dischi virtuali VM con os e software) e 4 HDD in RAID-10 per lo repository documentale e cartelle condivise
Codice:
pool: hddpool
state: ONLINE
scan: scrub repaired 0B in 01:35:11 with 0 errors on Sun Aug 13 01:59:12 2023
config:
NAME STATE READ WRITE CKSUM
hddpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-TOSHIBA_HDWD120_80P8DMMAS-part3 ONLINE 0 0 0
ata-TOSHIBA_HDWD120_80P8DNMAS-part3 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
ata-TOSHIBA_HDWD120_90GATAZAS-part3 ONLINE 0 0 0
ata-TOSHIBA_HDWD120_Z9L8539AS-part3 ONLINE 0 0 0
errors: No known data errors
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 00:00:22 with 0 errors on Sun Aug 13 00:24:25 2023
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Samsung_SSD_860_EVO_500GB_S4XBNF0N816570R-part3 ONLINE 0 0 0
ata-Samsung_SSD_860_EVO_500GB_S3Z2NB1KC28868K-part3 ONLINE 0 0 0
errors: No known data errors
pool: ssdpool
state: ONLINE
scan: scrub repaired 0B in 00:04:22 with 0 errors on Sun Aug 13 00:28:26 2023
config:
NAME STATE READ WRITE CKSUM
ssdpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Samsung_SSD_860_EVO_500GB_S4XBNF0N816570R-part5 ONLINE 0 0 0
ata-Samsung_SSD_860_EVO_500GB_S3Z2NB1KC28868K-part5 ONLINE 0 0 0
errors: No known data errors
Codice:
zfs list -t all
NAME USED AVAIL REFER MOUNTPOINT
hddpool 1.96T 1.55T 96K /hddpool
hddpool/ISO 13.5G 1.55T 13.5G /hddpool/ISO
hddpool/MIGRAZIONI 38.2G 1.55T 38.2G /hddpool/MIGRAZIONI
hddpool/data 1.91T 1.55T 96K /hddpool/data
hddpool/data/vm-120-disk-0 515G 1.55T 515G -
hddpool/data/vm-120-disk-1 849G 1.55T 849G -
hddpool/data/vm-130-disk-0 594G 1.55T 594G -
rpool 4.45G 17.8G 96K /rpool
rpool/ROOT 4.43G 17.8G 96K /rpool/ROOT
rpool/ROOT/pve-1 4.43G 17.8G 4.43G /
rpool/data 96K 17.8G 96K /rpool/data
ssdpool 83.2G 335G 96K /ssdpool
ssdpool/data 83.0G 335G 96K /ssdpool/data
ssdpool/data/vm-110-disk-0 2.33G 335G 2.32G -
ssdpool/data/vm-110-disk-0@__replicate_110-0_1692952259__ 4.22M - 2.32G -
ssdpool/data/vm-110-disk-1 1.07M 335G 1.07M -
ssdpool/data/vm-110-disk-1@__replicate_110-0_1692952259__ 0B - 1.07M -
ssdpool/data/vm-120-disk-0 56.4G 335G 56.4G -
ssdpool/data/vm-130-disk-0 23.6G 335G 23.6G -
ssdpool/data/vm-130-disk-1 490M 335G 490M -
ssdpool/data/vm-190-disk-0 192M 335G 183M -
ssdpool/data/vm-190-disk-0@__replicate_190-0_1692938404__ 8.72M - 183M -
come vedi dagli snapshot, in questo server ho una replica su un secondo server per le VM 110 e 190
Aggiungo anche la partition table di uno dei due SSD
Codice:
gdisk -l /dev/sda
GPT fdisk (gdisk) version 1.0.6
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Found valid GPT with protective MBR; using GPT.
Disk /dev/sda: 976773168 sectors, 465.8 GiB
Model: Samsung SSD 860
Sector size (logical/physical): 512/512 bytes
Disk identifier (GUID): 95EEB843-B656-4EB8-B166-BA10F1CBAFCE
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 33
First usable sector is 34, last usable sector is 976773134
Partitions will be aligned on 8-sector boundaries
Total free space is 5791758 sectors (2.8 GiB)
Number Start (sector) End (sector) Size Code Name
1 34 2047 1007.0 KiB EF02
2 2048 1050623 512.0 MiB EF00
3 1050624 50331648 23.5 GiB BF01 ZFS rpool
4 50331656 58720263 4.0 GiB 8200 Linux swap
5 58720264 970981383 435.0 GiB BF01 ZFS ssdpool