Segui il video qui sotto per vedere come installare il nostro sito come web app sulla tua schermata principale.
Nota: Questa funzionalità potrebbe non essere disponibile in alcuni browser.
Pubblicità
In realtà vorrei aspettare ancora qualche mese prima di installarlo.Per ora non ho avuto tempo di aggiornare nessun server alla 8, dovrebbe comunque esserci lo script pve7to8 verifica se ti segnala problemi
= SUMMARY =
TOTAL: 38
PASSED: 30
SKIPPED: 8
WARNINGS: 0
FAILURES: 0
Si lo so ma stavo guardando quello che combinava... sono simulazioni in VMware... la mia idea era di rivoluzionare dopo le ferie i miei serverini.Nel tuo caso il filesystem del container 100 è nel subvol
/rpool/data/subvol-100-disk-0
Però non è bene accederci direttamente da virtualizzatore. Al massimo usi
pct enter 100
E sei in shell nel container
Si ma era per capire come girava il fumo... sono una persona curiosa :)) ... comunque la prima cosa che faccio quando mi creo una vm o un container è avere un accesso ssh.Nel tuo caso il filesystem del container 100 è nel subvol
/rpool/data/subvol-100-disk-0
Però non è bene accederci direttamente da virtualizzatore. Al massimo usi
pct enter 100
E sei in shell nel container
L'avevo intuito. Io preferisco usare i miei server di test in ditta, ma capisco che a casa magari non ce l'hai un hardware da usare come server testSi lo so ma stavo guardando quello che combinava... sono simulazioni in VMware... la mia idea era di rivoluzionare dopo le ferie i miei serverini.
La prima opzione è quella corretta. Il file system condiviso (o meglio distribuito) Proxmox ce l'ha con CEPH principalmente, ma ti serve hardware con le palle (almeno 10G di connessione per CEPH, molta RAM, ecc).Usavo VM per fare delle simulazioni...in piccolo...l'un idea era fare mettere Proxmox sui due server a casa e creare due nodi più un terzo come backup server... oppure due nodi e file system condiviso ... ma resto scoperto di backup e mi devo inventare qualcosa...
Come scritto sopra, lascia perdere file system condiviso, ti rallenta di brutto. Puoi creare un cluster su 3 macchine e replicare da una all'altra se vuoi una situazione di HA.Una domanda, dato che non ho esperienza su Proxmox... normalmente te tieni anche l'os sotto zsf ? Pensavo ad una soluzione os su ext4 , gruppo lvm in raid 1 con container e vm secondo nodo identico ed eventualmente file system condiviso da nas per migrare tra i nodi.... poi penso al backup :))
pool: hddpool
state: ONLINE
scan: scrub repaired 0B in 01:35:11 with 0 errors on Sun Aug 13 01:59:12 2023
config:
NAME STATE READ WRITE CKSUM
hddpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-TOSHIBA_HDWD120_80P8DMMAS-part3 ONLINE 0 0 0
ata-TOSHIBA_HDWD120_80P8DNMAS-part3 ONLINE 0 0 0
mirror-1 ONLINE 0 0 0
ata-TOSHIBA_HDWD120_90GATAZAS-part3 ONLINE 0 0 0
ata-TOSHIBA_HDWD120_Z9L8539AS-part3 ONLINE 0 0 0
errors: No known data errors
pool: rpool
state: ONLINE
scan: scrub repaired 0B in 00:00:22 with 0 errors on Sun Aug 13 00:24:25 2023
config:
NAME STATE READ WRITE CKSUM
rpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Samsung_SSD_860_EVO_500GB_S4XBNF0N816570R-part3 ONLINE 0 0 0
ata-Samsung_SSD_860_EVO_500GB_S3Z2NB1KC28868K-part3 ONLINE 0 0 0
errors: No known data errors
pool: ssdpool
state: ONLINE
scan: scrub repaired 0B in 00:04:22 with 0 errors on Sun Aug 13 00:28:26 2023
config:
NAME STATE READ WRITE CKSUM
ssdpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
ata-Samsung_SSD_860_EVO_500GB_S4XBNF0N816570R-part5 ONLINE 0 0 0
ata-Samsung_SSD_860_EVO_500GB_S3Z2NB1KC28868K-part5 ONLINE 0 0 0
errors: No known data errors
zfs list -t all
NAME USED AVAIL REFER MOUNTPOINT
hddpool 1.96T 1.55T 96K /hddpool
hddpool/ISO 13.5G 1.55T 13.5G /hddpool/ISO
hddpool/MIGRAZIONI 38.2G 1.55T 38.2G /hddpool/MIGRAZIONI
hddpool/data 1.91T 1.55T 96K /hddpool/data
hddpool/data/vm-120-disk-0 515G 1.55T 515G -
hddpool/data/vm-120-disk-1 849G 1.55T 849G -
hddpool/data/vm-130-disk-0 594G 1.55T 594G -
rpool 4.45G 17.8G 96K /rpool
rpool/ROOT 4.43G 17.8G 96K /rpool/ROOT
rpool/ROOT/pve-1 4.43G 17.8G 4.43G /
rpool/data 96K 17.8G 96K /rpool/data
ssdpool 83.2G 335G 96K /ssdpool
ssdpool/data 83.0G 335G 96K /ssdpool/data
ssdpool/data/vm-110-disk-0 2.33G 335G 2.32G -
ssdpool/data/vm-110-disk-0@__replicate_110-0_1692952259__ 4.22M - 2.32G -
ssdpool/data/vm-110-disk-1 1.07M 335G 1.07M -
ssdpool/data/vm-110-disk-1@__replicate_110-0_1692952259__ 0B - 1.07M -
ssdpool/data/vm-120-disk-0 56.4G 335G 56.4G -
ssdpool/data/vm-130-disk-0 23.6G 335G 23.6G -
ssdpool/data/vm-130-disk-1 490M 335G 490M -
ssdpool/data/vm-190-disk-0 192M 335G 183M -
ssdpool/data/vm-190-disk-0@__replicate_190-0_1692938404__ 8.72M - 183M -
gdisk -l /dev/sda
GPT fdisk (gdisk) version 1.0.6
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Found valid GPT with protective MBR; using GPT.
Disk /dev/sda: 976773168 sectors, 465.8 GiB
Model: Samsung SSD 860
Sector size (logical/physical): 512/512 bytes
Disk identifier (GUID): 95EEB843-B656-4EB8-B166-BA10F1CBAFCE
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 33
First usable sector is 34, last usable sector is 976773134
Partitions will be aligned on 8-sector boundaries
Total free space is 5791758 sectors (2.8 GiB)
Number Start (sector) End (sector) Size Code Name
1 34 2047 1007.0 KiB EF02
2 2048 1050623 512.0 MiB EF00
3 1050624 50331648 23.5 GiB BF01 ZFS rpool
4 50331656 58720263 4.0 GiB 8200 Linux swap
5 58720264 970981383 435.0 GiB BF01 ZFS ssdpool