Projet Proxmox Varambon — 2 noeuds + ZFS replication + QDevice
Contexte
- Site de Varambon (usine), composé de 2 emplacements physiques distincts
- Infrastructure existante : 2 serveurs Hyper-V hébergeant les VMs usine (une par emplacement)
- Besoin : 3-4 VMs supplémentaires (Entra Proxy, TSplus pour 3 utilisateurs, Windows 11 avec TeamViewer)
- Objectif : haute disponibilité avec réplication ZFS entre les 2 emplacements, failover automatique via HA Manager Proxmox
VMs prévues
| VM |
Rôle |
vCPU |
RAM |
Disque |
Criticité |
| Entra Proxy |
Proxy Microsoft Entra ID (Azure AD) |
2 |
2 Go |
40 Go |
C2 |
| TSplus |
Serveur d'accès distant pour 3 utilisateurs |
4 |
8 Go |
80 Go |
C1 |
| W11 TeamViewer |
Poste Windows pour accès TeamViewer |
2 |
4 Go |
60 Go |
C2 |
| (Réserve) |
Future VM si besoin |
2 |
4 Go |
40 Go |
— |
Total : ~10 vCPU, ~18 Go RAM, ~220 Go disque
Architecture
┌─────────────────────────────────────┐ ┌─────────────────────────────────────┐
│ EMPLACEMENT 1 │ │ EMPLACEMENT 2 │
│ │ │ │
│ ┌───────────────────────────────┐ │ │ ┌───────────────────────────────┐ │
│ │ sof-pve-1 (PROD) │ │ │ │ sof-pve-2 (REPLICA) │ │
│ │ │ │ │ │ │ │
│ │ - Entra Proxy (active) │ │ │ │ - Entra Proxy (veille) │ │
│ │ - TSplus (active) │──┼─────┼──│ - TSplus (veille) │ │
│ │ - W11 TeamViewer (active) │ │ ZFS │ │ - W11 TeamViewer (veille) │ │
│ │ │ │ repl│ │ │ │
│ │ ZFS mirror (2x SSD) │ │ 15mn│ │ ZFS mirror (2x SSD) │ │
│ └───────────────────────────────┘ │ │ └───────────────────────────────┘ │
│ │ │ │
│ ┌───────────────────────────────┐ │ │ ┌───────────────────────────────┐ │
│ │ Hyper-V existant │ │ │ │ Hyper-V existant │ │
│ │ (VMs usine) │ │ │ │ (VMs usine) │ │
│ └───────────────────────────────┘ │ │ │ │ │
│ │ │ │ ┌─────────────────────────┐ │ │
│ │ │ │ │ VM QDevice (Debian) │ │ │
│ │ │ │ │ corosync-qnetd │ │ │
│ │ │ │ │ 1 vCPU / 512 Mo / 5 Go │ │ │
│ │ │ │ └─────────────────────────┘ │ │
│ │ │ └───────────────────────────────┘ │
└─────────────────────────────────────┘ └─────────────────────────────────────┘
Quorum (3 votes) :
- sof-pve-1 : 1 vote
- sof-pve-2 : 1 vote
- QDevice : 1 vote (sur Hyper-V emplacement 2)
Note importante : Le QDevice est intentionnellement placé sur l'emplacement opposé au Proxmox de production. Si l'emplacement 1 tombe, Proxmox 2 + QDevice = 2/3 votes = quorum maintenu = HA automatique. Les VMs redémarrent sur le noeud 2 depuis le dernier réplica ZFS.
Dimensionnement matériel recommandé
Pour chaque noeud Proxmox (2 serveurs identiques) :
| Composant |
Minimum |
Recommandé |
| CPU |
4 coeurs |
8 coeurs (marge pour le 2e noeud qui prend tout) |
| RAM |
32 Go |
48-64 Go (les 2 noeuds doivent pouvoir héberger toutes les VMs) |
| Stockage |
2x SSD 500 Go en ZFS mirror |
2x SSD 1 To en ZFS mirror |
| Réseau |
1x 1 Gbps (minimum) |
2x 1 Gbps (prod + réplication) |
Suggestions matériel reconditionné (~200-400 EUR/noeud) :
- HPE ProLiant DL360 Gen9/Gen10
- Dell PowerEdge R630/R640
- Lenovo ThinkSystem SR630
Choix techniques
Stockage : ZFS mirror (pas Ceph)
- 2 noeuds = Ceph impossible (réplica 2 minimum, pas de résilience réelle)
- ZFS mirror local + réplication Proxmox entre noeuds = simple, fiable, pas de réseau 10G requis
- Réplication toutes les 15 minutes (configurable, basée sur des snapshots ZFS)
Quorum : QDevice
- VM Debian minimale (1 vCPU, 512 Mo RAM, 5 Go disque) sur Hyper-V existant
- Service
corosync-qnetd
- Placement sur l'emplacement opposé au Proxmox de production
HA Manager Proxmox
- Les VMs sont configurées en HA dans Proxmox
- Si un noeud tombe et que le quorum est maintenu, les VMs démarrent automatiquement sur le noeud survivant depuis le dernier réplica ZFS
Pas de Ceph, pas de 10G, pas de stockage partagé
Architecture simple et adaptée à 3-4 VMs. Pas de complexité inutile.
Réseau
Adressage
| Noeud |
Hostname |
FQDN |
IP Management |
| Proxmox Node 1 (prod) |
sof-pve-1 |
sof-pve-1.pve.local |
10.3.230.10 |
| Proxmox Node 2 (replica) |
sof-pve-2 |
sof-pve-2.pve.local |
10.3.230.20 |
- Passerelle : 10.3.230.254
- DNS : 10.3.230.254
VLANs
| VLAN/Réseau |
Usage |
Subnet |
| Serveurs |
Management Proxmox + trafic VMs |
10.3.230.0/24 |
| Réplication |
ZFS réplication entre noeuds |
À définir (dédié recommandé) |
Plan de déploiement
| Phase |
Description |
| Phase 0 |
Commander le matériel (2x serveurs + SSD) |
| Phase 1 |
Installer Proxmox VE 9.x sur les 2 noeuds |
| Phase 2 |
Configurer ZFS mirror sur chaque noeud |
| Phase 3 |
Créer le cluster Proxmox (pvecm create + pvecm add) |
| Phase 4 |
Déployer la VM QDevice sur Hyper-V + pvecm qdevice setup |
| Phase 5 |
Créer les VMs (Entra Proxy, TSplus, W11) |
| Phase 6 |
Configurer la réplication ZFS (Datacenter > Replication > Add) |
| Phase 7 |
Configurer HA Manager (Datacenter > HA > Resources > Add) |
| Phase 8 |
Tests de failover (simuler la panne d'un noeud) |
Estimation budget
| Poste |
Quantité |
Prix estimé |
| Serveur reconditionné (DL360 Gen10 ou équiv.) |
2 |
~300-500 EUR/u |
| SSD 1 To enterprise |
4 (2 par noeud, ZFS mirror) |
~100 EUR/u |
| RAM supplémentaire si nécessaire |
Variable |
~50-100 EUR/u |
| VM QDevice |
0 EUR (sur Hyper-V existant) |
0 EUR |
| Licences Proxmox |
0 EUR (open-source) |
0 EUR |
| Total estimé |
|
~1000-1600 EUR |
Risques
| Risque |
Impact |
Mitigation |
| Perte emplacement 1 (Proxmox prod) |
VMs redémarrent sur Node 2 via HA (si QDevice sur emplacement 2) |
QDevice placé sur l'emplacement opposé |
| Perte emplacement 2 (QDevice + Proxmox réplica) |
Proxmox 1 perd le quorum, VMs continuent mais pas de HA |
Intervention manuelle : pvecm expected 1 |
| Perte des 2 emplacements |
Tout down |
Hors scope — désastre complet |
| Perte de données |
Max 15 min (intervalle de réplication ZFS) |
Réduire l'intervalle si critique |
Voir aussi