Aller au contenu

Projet Proxmox Varambon — 2 noeuds + ZFS replication + QDevice

Contexte

  • Site de Varambon (usine), composé de 2 emplacements physiques distincts
  • Infrastructure existante : 2 serveurs Hyper-V hébergeant les VMs usine (une par emplacement)
  • Besoin : 3-4 VMs supplémentaires (Entra Proxy, TSplus pour 3 utilisateurs, Windows 11 avec TeamViewer)
  • Objectif : haute disponibilité avec réplication ZFS entre les 2 emplacements, failover automatique via HA Manager Proxmox

VMs prévues

VM Rôle vCPU RAM Disque Criticité
Entra Proxy Proxy Microsoft Entra ID (Azure AD) 2 2 Go 40 Go C2
TSplus Serveur d'accès distant pour 3 utilisateurs 4 8 Go 80 Go C1
W11 TeamViewer Poste Windows pour accès TeamViewer 2 4 Go 60 Go C2
(Réserve) Future VM si besoin 2 4 Go 40 Go

Total : ~10 vCPU, ~18 Go RAM, ~220 Go disque

Architecture

┌─────────────────────────────────────┐     ┌─────────────────────────────────────┐
│         EMPLACEMENT 1               │     │         EMPLACEMENT 2               │
│                                     │     │                                     │
│  ┌───────────────────────────────┐  │     │  ┌───────────────────────────────┐  │
│  │  sof-pve-1 (PROD)             │  │     │  │  sof-pve-2 (REPLICA)         │  │
│  │                               │  │     │  │                               │  │
│  │  - Entra Proxy (active)       │  │     │  │  - Entra Proxy (veille)       │  │
│  │  - TSplus (active)            │──┼─────┼──│  - TSplus (veille)            │  │
│  │  - W11 TeamViewer (active)    │  │ ZFS │  │  - W11 TeamViewer (veille)    │  │
│  │                               │  │ repl│  │                               │  │
│  │  ZFS mirror (2x SSD)         │  │ 15mn│  │  ZFS mirror (2x SSD)         │  │
│  └───────────────────────────────┘  │     │  └───────────────────────────────┘  │
│                                     │     │                                     │
│  ┌───────────────────────────────┐  │     │  ┌───────────────────────────────┐  │
│  │  Hyper-V existant             │  │     │  │  Hyper-V existant             │  │
│  │  (VMs usine)                  │  │     │  │  (VMs usine)                  │  │
│  └───────────────────────────────┘  │     │  │                               │  │
│                                     │     │  │  ┌─────────────────────────┐  │  │
│                                     │     │  │  │ VM QDevice (Debian)     │  │  │
│                                     │     │  │  │ corosync-qnetd          │  │  │
│                                     │     │  │  │ 1 vCPU / 512 Mo / 5 Go │  │  │
│                                     │     │  │  └─────────────────────────┘  │  │
│                                     │     │  └───────────────────────────────┘  │
└─────────────────────────────────────┘     └─────────────────────────────────────┘

Quorum (3 votes) :
  - sof-pve-1 : 1 vote
  - sof-pve-2 : 1 vote
  - QDevice        : 1 vote (sur Hyper-V emplacement 2)

Note importante : Le QDevice est intentionnellement placé sur l'emplacement opposé au Proxmox de production. Si l'emplacement 1 tombe, Proxmox 2 + QDevice = 2/3 votes = quorum maintenu = HA automatique. Les VMs redémarrent sur le noeud 2 depuis le dernier réplica ZFS.

Dimensionnement matériel recommandé

Pour chaque noeud Proxmox (2 serveurs identiques) :

Composant Minimum Recommandé
CPU 4 coeurs 8 coeurs (marge pour le 2e noeud qui prend tout)
RAM 32 Go 48-64 Go (les 2 noeuds doivent pouvoir héberger toutes les VMs)
Stockage 2x SSD 500 Go en ZFS mirror 2x SSD 1 To en ZFS mirror
Réseau 1x 1 Gbps (minimum) 2x 1 Gbps (prod + réplication)

Suggestions matériel reconditionné (~200-400 EUR/noeud) :

  • HPE ProLiant DL360 Gen9/Gen10
  • Dell PowerEdge R630/R640
  • Lenovo ThinkSystem SR630

Choix techniques

Stockage : ZFS mirror (pas Ceph)

  • 2 noeuds = Ceph impossible (réplica 2 minimum, pas de résilience réelle)
  • ZFS mirror local + réplication Proxmox entre noeuds = simple, fiable, pas de réseau 10G requis
  • Réplication toutes les 15 minutes (configurable, basée sur des snapshots ZFS)

Quorum : QDevice

  • VM Debian minimale (1 vCPU, 512 Mo RAM, 5 Go disque) sur Hyper-V existant
  • Service corosync-qnetd
  • Placement sur l'emplacement opposé au Proxmox de production

HA Manager Proxmox

  • Les VMs sont configurées en HA dans Proxmox
  • Si un noeud tombe et que le quorum est maintenu, les VMs démarrent automatiquement sur le noeud survivant depuis le dernier réplica ZFS

Pas de Ceph, pas de 10G, pas de stockage partagé

Architecture simple et adaptée à 3-4 VMs. Pas de complexité inutile.

Réseau

Adressage

Noeud Hostname FQDN IP Management
Proxmox Node 1 (prod) sof-pve-1 sof-pve-1.pve.local 10.3.230.10
Proxmox Node 2 (replica) sof-pve-2 sof-pve-2.pve.local 10.3.230.20
  • Passerelle : 10.3.230.254
  • DNS : 10.3.230.254

VLANs

VLAN/Réseau Usage Subnet
Serveurs Management Proxmox + trafic VMs 10.3.230.0/24
Réplication ZFS réplication entre noeuds À définir (dédié recommandé)

Plan de déploiement

Phase Description
Phase 0 Commander le matériel (2x serveurs + SSD)
Phase 1 Installer Proxmox VE 9.x sur les 2 noeuds
Phase 2 Configurer ZFS mirror sur chaque noeud
Phase 3 Créer le cluster Proxmox (pvecm create + pvecm add)
Phase 4 Déployer la VM QDevice sur Hyper-V + pvecm qdevice setup
Phase 5 Créer les VMs (Entra Proxy, TSplus, W11)
Phase 6 Configurer la réplication ZFS (Datacenter > Replication > Add)
Phase 7 Configurer HA Manager (Datacenter > HA > Resources > Add)
Phase 8 Tests de failover (simuler la panne d'un noeud)

Estimation budget

Poste Quantité Prix estimé
Serveur reconditionné (DL360 Gen10 ou équiv.) 2 ~300-500 EUR/u
SSD 1 To enterprise 4 (2 par noeud, ZFS mirror) ~100 EUR/u
RAM supplémentaire si nécessaire Variable ~50-100 EUR/u
VM QDevice 0 EUR (sur Hyper-V existant) 0 EUR
Licences Proxmox 0 EUR (open-source) 0 EUR
Total estimé ~1000-1600 EUR

Risques

Risque Impact Mitigation
Perte emplacement 1 (Proxmox prod) VMs redémarrent sur Node 2 via HA (si QDevice sur emplacement 2) QDevice placé sur l'emplacement opposé
Perte emplacement 2 (QDevice + Proxmox réplica) Proxmox 1 perd le quorum, VMs continuent mais pas de HA Intervention manuelle : pvecm expected 1
Perte des 2 emplacements Tout down Hors scope — désastre complet
Perte de données Max 15 min (intervalle de réplication ZFS) Réduire l'intervalle si critique

Voir aussi