info proxmox e LXC

Mreagle

Nuovo Utente
21
0
Non so se posso utilizzare ancora questo thread.
Ma è consigliabile passare alla versione 8?
I dischi in cui si trova il sistema operativo, ci sono problemi se sono in zfs?
Grazie
 

r3dl4nce

Utente Èlite
16,965
9,264
Per ora non ho avuto tempo di aggiornare nessun server alla 8, dovrebbe comunque esserci lo script pve7to8 verifica se ti segnala problemi
 
  • Mi piace
Reazioni: Moffetta88

r3dl4nce

Utente Èlite
16,965
9,264
Proxmox è decisamente ben funzionante e stabile, anche io sto aspettando un po' prima di aggiornare i server in produzione dai client, intanto appena possibile aggiornerò i server in azienda per vedere se ci sono problemi in fase di passaggio sistema operativo (passano alla nuova release di Debian)

Lo script non mi riporterebbe problemi
Codice:
= SUMMARY =

TOTAL:    38
PASSED:   30
SKIPPED:  8
WARNINGS: 0
FAILURES: 0
 

Jabosky

Utente Attivo
300
139
CPU
AMD Ryzen 9 5900X
Dissipatore
Noctua NH-D15 chromax.black
Scheda Madre
MSI MAG B550 TOMAHAWK
HDD
Samsung MZ-V8P2T0B 980 PRO SSD 2TB + WD HDD Red Plus 4TB 256MB 3,5"
RAM
Crucial Ballistix BL2K16G36C16U4RL RGB, 3600 MHz, 32GB
GPU
ASUS TUF RTX 3070 TI OC 8GB
Monitor
LG 27GP850
PSU
Seasonic PC FOCUS GX-850
Case
Fractal Design Define 7 Nero - Alluminio spazzolato / acciaio - Vetro temperato - Mid Tower
OS
Linux Mint 20.03 - Windows 10 Pro
Mi lego a questo 3d per un fatto strano che mi è successo oggi.
Volevo provare Promox per valutare se adottarlo per un serverino a casa e per le prove l'ho installato sotto VMware Worstation installandolo con su due dischi ZFS in mirror. In generale tutto bene, poi ho installato un template LXC per le condivisioni SMB/CIF, e anche qui le condivisioni create tramite la sua consolle andavano. Copiati dei file senza prblemi e provato il tutto da un client, poi ho creato un nuovo folder da shell e l'ho fatto condividere, entrato da client provando a creare un file di calcolo di OO mi dava errore di permessi, cavoli avevo dimenticato che creando il folder da shell avevo lasciato i diritti di root, rientro in shell e cambio propietario e diritti del folder. Torno sul client e ricreo il file di OpenOffice questa volta senza problemi e ne salvo anche una copia in pdf... tutto tranquillo. Vado a vedere da shell su Proxmox il file system della lxc che aveva creato in /rpool/data e i file nel folder di prova che avevo creato non ci sono mentre quelli nella cartella che aveva creato lui c'erano.... torno sul client e riaccedo ... ed i file ci sono... riapro sia il foglio di calcolo che il pdf... anzi ci faccio pure delle modifiche e risalvo senza problemi. Ricotrollo dalla consolle di Proxmox ed i file continuano a non esserci... ma dal client si vedono. A sto punto spengo il client, chiudo il container su Proxmox ed infine chiudo anche Proxmox. Riaccendo il tutto e pure il client e quei file effettivamente non ci sono.... qualcuno ha qualche spiegazione ? Domani voglio riprovare.
 

Jabosky

Utente Attivo
300
139
CPU
AMD Ryzen 9 5900X
Dissipatore
Noctua NH-D15 chromax.black
Scheda Madre
MSI MAG B550 TOMAHAWK
HDD
Samsung MZ-V8P2T0B 980 PRO SSD 2TB + WD HDD Red Plus 4TB 256MB 3,5"
RAM
Crucial Ballistix BL2K16G36C16U4RL RGB, 3600 MHz, 32GB
GPU
ASUS TUF RTX 3070 TI OC 8GB
Monitor
LG 27GP850
PSU
Seasonic PC FOCUS GX-850
Case
Fractal Design Define 7 Nero - Alluminio spazzolato / acciaio - Vetro temperato - Mid Tower
OS
Linux Mint 20.03 - Windows 10 Pro
Ecco :
root@prm02v:~# zfs list -t all
NAME USED AVAIL REFER MOUNTPOINT
rpool 2.83G 54.3G 104K /rpool
rpool/ROOT 2.13G 54.3G 96K /rpool/ROOT
rpool/ROOT/pve-1 2.13G 54.3G 2.13G /
rpool/data 708M 54.3G 96K /rpool/data
rpool/data/subvol-100-disk-0 708M 19.3G 708M /rpool/data/subvol-100-disk-0
root@prm02v:~#
 

Jabosky

Utente Attivo
300
139
CPU
AMD Ryzen 9 5900X
Dissipatore
Noctua NH-D15 chromax.black
Scheda Madre
MSI MAG B550 TOMAHAWK
HDD
Samsung MZ-V8P2T0B 980 PRO SSD 2TB + WD HDD Red Plus 4TB 256MB 3,5"
RAM
Crucial Ballistix BL2K16G36C16U4RL RGB, 3600 MHz, 32GB
GPU
ASUS TUF RTX 3070 TI OC 8GB
Monitor
LG 27GP850
PSU
Seasonic PC FOCUS GX-850
Case
Fractal Design Define 7 Nero - Alluminio spazzolato / acciaio - Vetro temperato - Mid Tower
OS
Linux Mint 20.03 - Windows 10 Pro
Comunque stamani ho trovato un errore nei permessi di scrittura e ora funziona tutto.
La cosa strana però che ieri avrebbe dovuto darmi l'errore di permessi e invece sembrava salvare ma non salvava (giustamente) e non restituiva nessun errore. Comunque i container con i template già preparati non mi finiscono di piacere, penso che userò quelli puliti e me il personalizzo a modo mio.
 

r3dl4nce

Utente Èlite
16,965
9,264
Nel tuo caso il filesystem del container 100 è nel subvol
/rpool/data/subvol-100-disk-0

Però non è bene accederci direttamente da virtualizzatore. Al massimo usi

pct enter 100
E sei in shell nel container
 

Jabosky

Utente Attivo
300
139
CPU
AMD Ryzen 9 5900X
Dissipatore
Noctua NH-D15 chromax.black
Scheda Madre
MSI MAG B550 TOMAHAWK
HDD
Samsung MZ-V8P2T0B 980 PRO SSD 2TB + WD HDD Red Plus 4TB 256MB 3,5"
RAM
Crucial Ballistix BL2K16G36C16U4RL RGB, 3600 MHz, 32GB
GPU
ASUS TUF RTX 3070 TI OC 8GB
Monitor
LG 27GP850
PSU
Seasonic PC FOCUS GX-850
Case
Fractal Design Define 7 Nero - Alluminio spazzolato / acciaio - Vetro temperato - Mid Tower
OS
Linux Mint 20.03 - Windows 10 Pro
Nel tuo caso il filesystem del container 100 è nel subvol
/rpool/data/subvol-100-disk-0

Però non è bene accederci direttamente da virtualizzatore. Al massimo usi

pct enter 100
E sei in shell nel container
Si lo so ma stavo guardando quello che combinava... sono simulazioni in VMware... la mia idea era di rivoluzionare dopo le ferie i miei serverini.
Usavo VM per fare delle simulazioni...in piccolo...l'un idea era fare mettere Proxmox sui due server a casa e creare due nodi più un terzo come backup server... oppure due nodi e file system condiviso ... ma resto scoperto di backup e mi devo inventare qualcosa...
Beh comunque è tutto in fase di valutazione...ci penso quando torno dalle ferie... ora sono tutti test che simulo.
Lo so che per una struttura casalinga è un pò esagerata, ma la mia situazione è un pò ibrida, un pò lavoro da casa e a casa e un po sono fuori...comunque come ti dicevol'attuale struttura funziona sto solo studiando la prossima ;)
Post unito automaticamente:

Nel tuo caso il filesystem del container 100 è nel subvol
/rpool/data/subvol-100-disk-0

Però non è bene accederci direttamente da virtualizzatore. Al massimo usi

pct enter 100
E sei in shell nel container
Si ma era per capire come girava il fumo... sono una persona curiosa :)) ... comunque la prima cosa che faccio quando mi creo una vm o un container è avere un accesso ssh.
Una domanda, dato che non ho esperienza su Proxmox... normalmente te tieni anche l'os sotto zsf ? Pensavo ad una soluzione os su ext4 , gruppo lvm in raid 1 con container e vm secondo nodo identico ed eventualmente file system condiviso da nas per migrare tra i nodi.... poi penso al backup :))
 
Ultima modifica:

r3dl4nce

Utente Èlite
16,965
9,264
Si lo so ma stavo guardando quello che combinava... sono simulazioni in VMware... la mia idea era di rivoluzionare dopo le ferie i miei serverini.
L'avevo intuito. Io preferisco usare i miei server di test in ditta, ma capisco che a casa magari non ce l'hai un hardware da usare come server test

Usavo VM per fare delle simulazioni...in piccolo...l'un idea era fare mettere Proxmox sui due server a casa e creare due nodi più un terzo come backup server... oppure due nodi e file system condiviso ... ma resto scoperto di backup e mi devo inventare qualcosa...
La prima opzione è quella corretta. Il file system condiviso (o meglio distribuito) Proxmox ce l'ha con CEPH principalmente, ma ti serve hardware con le palle (almeno 10G di connessione per CEPH, molta RAM, ecc).
Di buono c'è che su proxmox puoi replicare una VM su un secondo server se crei un cluster (questo per HA) oppure ti limiti a fare 2 server separati e il terzo lo imposti con proxmox backup server e ci tieni i backup completi delle VM, per cui in caso di guasto di un server reinstalli al volo proxmox e ripristini tutti i backup senza problemi



Una domanda, dato che non ho esperienza su Proxmox... normalmente te tieni anche l'os sotto zsf ? Pensavo ad una soluzione os su ext4 , gruppo lvm in raid 1 con container e vm secondo nodo identico ed eventualmente file system condiviso da nas per migrare tra i nodi.... poi penso al backup :))
Come scritto sopra, lascia perdere file system condiviso, ti rallenta di brutto. Puoi creare un cluster su 3 macchine e replicare da una all'altra se vuoi una situazione di HA.

Le mie installazioni più o meno standard sono così:
  • Due SSD/NVME in RAID-1
    • su questi installo Proxmox (pool rpool creato dall'installer con la root) però non usando tutto lo spazio, dall'installer puoi limitare lo spazio in uso, lascio circa 30GB per la root.
    • su ogni ssd creo partizione di swap (tipo 8200) giusto per avee un minimo di swap incaso di saturazione RAM
    • creo anche uno zram per lo swap, giusto un minimo, tipo 2GB, con priorità maggiore dello swap su SSD
    • lo spazio rimasto sugli SSD lo partiziono (tipo BF01) e creo un ulteriore pool per le VM, tipo fastpool / ssdpool / chiamalo come vuoi
  • N HDD per lo storage dati / documentale che non richieda accesso veloce, creo un pool in RAID-1 se sono 2 HDD, RAID-5 se sono più HDD o RAID-10 se ho meno necessità di spazio e ho 4+ HDD
  • eventuali ulteriori SSD / NVME se serve più spazio per storage veloce, esempio database con MOLTI accessi veloci, sempre in RAID
Sul pool fastpool metto tutti i sistemi operativi delle VM, le installazioni dei software, ecc, sul pool hddpool i dati esempio condivisioni documentali, ecc. Se servono database o altre cartelle ad accesso veloce, metto nvme / ssd dedicati e in quel pool ci credo i dischi virtuali dove mettere questo storage


Esempio di un server con 2 SSD (rpool per sistema operativo debian/proxmox e ssdpool per dischi virtuali VM con os e software) e 4 HDD in RAID-10 per lo repository documentale e cartelle condivise


Codice:
  pool: hddpool
 state: ONLINE
  scan: scrub repaired 0B in 01:35:11 with 0 errors on Sun Aug 13 01:59:12 2023
config:

        NAME                                     STATE     READ WRITE CKSUM
        hddpool                                  ONLINE       0     0     0
          mirror-0                               ONLINE       0     0     0
            ata-TOSHIBA_HDWD120_80P8DMMAS-part3  ONLINE       0     0     0
            ata-TOSHIBA_HDWD120_80P8DNMAS-part3  ONLINE       0     0     0
          mirror-1                               ONLINE       0     0     0
            ata-TOSHIBA_HDWD120_90GATAZAS-part3  ONLINE       0     0     0
            ata-TOSHIBA_HDWD120_Z9L8539AS-part3  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
  scan: scrub repaired 0B in 00:00:22 with 0 errors on Sun Aug 13 00:24:25 2023
config:

        NAME                                                     STATE     READ WRITE CKSUM
        rpool                                                    ONLINE       0     0     0
          mirror-0                                               ONLINE       0     0     0
            ata-Samsung_SSD_860_EVO_500GB_S4XBNF0N816570R-part3  ONLINE       0     0     0
            ata-Samsung_SSD_860_EVO_500GB_S3Z2NB1KC28868K-part3  ONLINE       0     0     0

errors: No known data errors

  pool: ssdpool
 state: ONLINE
  scan: scrub repaired 0B in 00:04:22 with 0 errors on Sun Aug 13 00:28:26 2023
config:

        NAME                                                     STATE     READ WRITE CKSUM
        ssdpool                                                  ONLINE       0     0     0
          mirror-0                                               ONLINE       0     0     0
            ata-Samsung_SSD_860_EVO_500GB_S4XBNF0N816570R-part5  ONLINE       0     0     0
            ata-Samsung_SSD_860_EVO_500GB_S3Z2NB1KC28868K-part5  ONLINE       0     0     0

errors: No known data errors

Codice:
zfs list -t all
NAME                                                        USED  AVAIL     REFER  MOUNTPOINT
hddpool                                                    1.96T  1.55T       96K  /hddpool
hddpool/ISO                                                13.5G  1.55T     13.5G  /hddpool/ISO
hddpool/MIGRAZIONI                                         38.2G  1.55T     38.2G  /hddpool/MIGRAZIONI
hddpool/data                                               1.91T  1.55T       96K  /hddpool/data
hddpool/data/vm-120-disk-0                                  515G  1.55T      515G  -
hddpool/data/vm-120-disk-1                                  849G  1.55T      849G  -
hddpool/data/vm-130-disk-0                                  594G  1.55T      594G  -
rpool                                                      4.45G  17.8G       96K  /rpool
rpool/ROOT                                                 4.43G  17.8G       96K  /rpool/ROOT
rpool/ROOT/pve-1                                           4.43G  17.8G     4.43G  /
rpool/data                                                   96K  17.8G       96K  /rpool/data
ssdpool                                                    83.2G   335G       96K  /ssdpool
ssdpool/data                                               83.0G   335G       96K  /ssdpool/data
ssdpool/data/vm-110-disk-0                                 2.33G   335G     2.32G  -
ssdpool/data/vm-110-disk-0@__replicate_110-0_1692952259__  4.22M      -     2.32G  -
ssdpool/data/vm-110-disk-1                                 1.07M   335G     1.07M  -
ssdpool/data/vm-110-disk-1@__replicate_110-0_1692952259__     0B      -     1.07M  -
ssdpool/data/vm-120-disk-0                                 56.4G   335G     56.4G  -
ssdpool/data/vm-130-disk-0                                 23.6G   335G     23.6G  -
ssdpool/data/vm-130-disk-1                                  490M   335G      490M  -
ssdpool/data/vm-190-disk-0                                  192M   335G      183M  -
ssdpool/data/vm-190-disk-0@__replicate_190-0_1692938404__  8.72M      -      183M  -

come vedi dagli snapshot, in questo server ho una replica su un secondo server per le VM 110 e 190

Aggiungo anche la partition table di uno dei due SSD

Codice:
gdisk -l /dev/sda
GPT fdisk (gdisk) version 1.0.6

Partition table scan:
  MBR: protective
  BSD: not present
  APM: not present
  GPT: present

Found valid GPT with protective MBR; using GPT.
Disk /dev/sda: 976773168 sectors, 465.8 GiB
Model: Samsung SSD 860
Sector size (logical/physical): 512/512 bytes
Disk identifier (GUID): 95EEB843-B656-4EB8-B166-BA10F1CBAFCE
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 33
First usable sector is 34, last usable sector is 976773134
Partitions will be aligned on 8-sector boundaries
Total free space is 5791758 sectors (2.8 GiB)

Number  Start (sector)    End (sector)  Size       Code  Name
   1              34            2047   1007.0 KiB  EF02
   2            2048         1050623   512.0 MiB   EF00
   3         1050624        50331648   23.5 GiB    BF01  ZFS rpool
   4        50331656        58720263   4.0 GiB     8200  Linux swap
   5        58720264       970981383   435.0 GiB   BF01  ZFS ssdpool
 

Jabosky

Utente Attivo
300
139
CPU
AMD Ryzen 9 5900X
Dissipatore
Noctua NH-D15 chromax.black
Scheda Madre
MSI MAG B550 TOMAHAWK
HDD
Samsung MZ-V8P2T0B 980 PRO SSD 2TB + WD HDD Red Plus 4TB 256MB 3,5"
RAM
Crucial Ballistix BL2K16G36C16U4RL RGB, 3600 MHz, 32GB
GPU
ASUS TUF RTX 3070 TI OC 8GB
Monitor
LG 27GP850
PSU
Seasonic PC FOCUS GX-850
Case
Fractal Design Define 7 Nero - Alluminio spazzolato / acciaio - Vetro temperato - Mid Tower
OS
Linux Mint 20.03 - Windows 10 Pro
Mi hai dato delle belle idee, grazie....farò un pò di simulazioni sotto VMware in piccolo, comunque si tratta un server "semiprofessionale" non un home server ma nemmeno un sistema HA, alla fine mi non mi serve poi molto una VM o un CT per un cloud un po cicciotto, un server NAS, qualche database e poi le solite cose per casa/hobby. Come utenti alla fine siamo pochi, li conti su sulle dita di una mano, però molti dati sono importanti pertanto backup tassativi.... probabilmente opterò per due nodi in cluster e backupserver sul terzo...se in caso di guasto perdo mezza giornata a far ripartire il tutto non è grave, ma non posso assolutamente perdere i dati.
 

Entra

oppure Accedi utilizzando
Discord Ufficiale Entra ora!

Discussioni Simili