In questo articolo andremo ad illustrare le diverse tipologie di storage ed in particolar modo:
- Local Thin
- ZFS
- Ceph
- CephFS
Il nostro ambiente di laboratorio è configurato seguendo:
- https://www.i3piccioni.it/2026/02/12/proxmox-deploy-e-prima-configurazione/
- https://www.i3piccioni.it/2026/02/13/proxmox-configurazione-network/
Su ogni nodo (nested su ESXi 8.0U3) sono stati inseriti i seguenti dischi

dove:
- /dev/sda –> OS Disk da 200 GB Thin
- /dev/sdb –> SAS Disk da 320 GB Thin
- /dev/sdc –> SSD Disk da 300 GB Thin
- /dev/sdd –> SSD Disk da 300 GB Thin
- /dev/sde –> SSD Disk da 250 GB Thick Lazy Zeroed
- /dev/sdf –> SSD Disk da 250 GB Thick Lazy Zeroed
/dev/sdb –> LVM-Thin
In questo disco andremo a configurare un datastore per il nodo Proxmox Thin
- Selezionare il nodo Proxmox –> Disks, selezionare il disco (/dev/sdb) e cliccare su Wipe Disk per pulirlo (Attenzione! Questa operazione cancellerà tutti gli eventuali dati presenti nel disco!)

- Sotto Disk selezionare LVM-Thin e cliccare su Create: Thinpool

- Inserire il disco e dare il nome al pool (sarà anche il nome del Volume Group che verrà creato). Spuntare Add Storage per aggiungerlo direttamente come storage del nodo e cliccare su Create

- L’ LVM-Thin Pool è stato creato e aggiunto al nodo

- Effettuare la stessa procedura per i restanti nodi. Al termine, sotto Datacenter –> Storage, vedremo (se abbiamo utilizzato lo stesso nome) un unico ID relativo all’ LVM-Thin Pool

/dev/sdc – /dev/sdd –> ZFS
In questa sezione illustreremo la creazione di uno storage ZFS con dischi mirror (/dev/sdc e /dev/sdd)
- Selezionare il nodo Proxmox –> Disks –> ZFS e clicchiamo su Create: ZFS

- Inserire il nome, spuntare Add Storage per aggiungerlo subito al nodo, impostare il RAID Level a Mirror e abilitare la Compressione. Essendo il RAID Level come Mirror spuntare i due dischi /dev/sdc e /dev/sdd e cliccare su Create.
Nota: nelle immagini sottostanti ci sarà l’elenco dei RAID Level e dei tipi di compressione disponibili. Ovviamente il RAID Level va impostato in base alla quantità di dischi che abbiamo disponibili.

- Al termine vedremo il nostro datastore ZFS in Raid 1 agganciato al nostro nodo.

- Ripetere per i restanti nodi e, se utilizzeremo lo stesso ID name, sotto Datacenter –> Storage vedremo anche il datastore ZFS

- Selezionando lo storage (vale per qualsiasi tipo presente nell’elenco) e clicchiamo su Edit, possiamo andare a stabilire il tipo di Content che può accettare, su quali nodi impostare, abilitarlo/disabilitarlo, il thin provision e l’eventuale block size

/dev/sde – /dev/sdf –> Ceph
Finora abbiamo configurato storage locali per ogni nodo Proxmox (LVM, LVM-Thin e ZFS agiscono esclusivamente localmente ad ogni nodo).
Con Ceph si introduce un tipo di storage “distribuito”, come Software Defined Storage (SDS). Disponibile come unico storage per tutti i nodi appartenenti al cluster.
Fondamentale, oltre alla parte disco, è la parte Network. Ceph comunicherà con le VM e con i propri dischi (OSD) tramite network dedicata (l’abbiamo configurata in https://www.i3piccioni.it/2026/02/13/proxmox-configurazione-network/ con le nic in bonding, attestate su VLAN 8 tagged)
- Selezionare il Datacenter –> Ceph ed installare i pacchetti (inizialmente lo farà sul primo nodo) cliccando su Install Ceph

- Selezionare la versione e il repository e cliccare su Start Tentacle Installation

- Premere Y (Yes) quando richiesto e al termine cliccare su Next

- Inserire l’ip della network che abbiamo configurato precedentemente, verificare che venga creato il primo Ceph monitor (controlla lo status di Ceph), impostare il numero di repliche (il numero dei dati che verranno replicati nei nodi)il il numero minimo delle repliche (al di sotto del quale ci sarà l’inconsistenza dello storage) e cliccare su Next.
Nota: in questo caso l’ip della Public Network e della Cluster Network è la stessa, ma se si vogliono migliorare le performance è possibile dedicare un’ulteriore rete per Ceph, in quanto:- La Public Network è la rete che utilizzano le VM e i nodi per “parlare” con lo storage Ceph
- La Cluster Network è la rete che utilizzato i dischi OSD per “parlare” tra di loro

- Cliccare su Finish

- Andare sugli altri nodi Proxmox per installare Ceph sotto nodo Proxmox –> Ceph
- Per ridondanza aggiungiamo il nodo 2 di Proxmox come monitor Ceph (e contestualmente installiamo Ceph)

- Al termine della procedura illustrata prima avremo il secondo nodo Proxmox come monitor Ceph. I monitor devono sempre essere dispari, quindi andremo ad aggiungere il terzo nodo Proxmox come monitor Ceph cliccando direttamente su Create (sotto nodo Proxmox –> Ceph –> Monitor). Inseriamo l’host e clicchiamo di nuovo su Create

- Successivamente andremo a dare ridondanza alla parte Manager, quindi sempre nella stessa sezione ma nel frame in basso “Manager” clicchiamo su Create –> aggiungiamo l’host –> Create

- Aggiungere i dischi OSD dei nodi Proxmox a Ceph. Selezionare il nodo Prxomox –> Ceph –> OSD –> Create: OSD

- Selezionare il disco (/dev/sde), la Device Class e cliccare su Create. Ripetere anche per l’altro disco (/dev/sdf)
Nota: se si vogliono migliorare ulteriormente le prestazioni, ed abbiamo altri dischi disponibili, possiamo cambiare il DB Disk e il WAL Disk anzichè lasciarli sullo stesso OSD disk

- Ripetere la procedura per gli altri nodi Proxmox

- In Datacenter –> Ceph vedremo lo status Green di Ceph

- Andiamo a creare ora il Ceph Pool che verrà montato come storage dai nodi. Andare su un nodo Proxmox (qualsiasi) –> Ceph –> Pools –> Create

- Inserire il nome del pool, il size della replica (3) e il minimum size (2) e la regola (replicated_rule). Spuntare Add as Storage per agganciarlo direttamente ai nodi e cliccare su Create

- Sia sul nodo che sul datacenter vedremo il Ceph Pool presente

- Se vogliamo, attiviamo la compressione

CephFS
Nel Ceph Pool non è possibile creare cartelle per Templates o ISO o per Backup in quanto è dedicato solamente ai dischi delle VM o dei Container.
Per avere un repository condiviso tra i nodi Proxmox dove poter inserire ad esempio ISO o Backup dobbiamo creare il CephFS
- Andare su un nodo Proxmox –> Ceph –> CephFS e creare il metadata server cliccando su Create

- Inserire l’Host e il MetaData Server ID e cliccare su Create


- Creare un altro per ridondanza

- Creare CephFS cliccando Create: CephFS

- Inserire il nome e spuntare Add as Storage per aggiungerlo direttamente al cluster. Cliccare su Create

- Essendoci due MetaData Servers impostare quello attivo e quello standby. Da riga di comando:

- In Datacenter –> Storage vedremo il nostro CephFS

- Selezionarlo e cliccare su Edit per andare ad impostare il Content come ISO Image e Container template

- Per caricare delle ISOs, selezionare un nodo Proxmox –> in basso selezionare il relativo CephFS datastore –> ISO Images –> Uploads

- Caricare le ISOs e cliccare su Upload


- Per caricare i CT Templates (Container Templates), selezionare un nodo Proxmox –> CephFS Datastore –> CT Templates –> Templates (se ne abbiamo uno locale cliccare su Upload, oppure Download from URL se ce l’abbiamo in un repository esterno, oppure Pull from OCI Registry per prelevarlo da Openshift)

- Selezionare un Template (Esempio: Ubuntu-24–04-Standard) e cliccare su Download. Attendere il termine .


Il nostro cluster è così configurato anche lato storage!!!

Nei prossimi articoli andremo ad illustrare come creare una VM, un Container, utilizzare e testare l’HA ed utilizzare la replica. Installeremo anche un Proxmox Backup Server per attivare e gestire i backups.
Stay Tuned 😉
Enjoy 🙂
