Aller au contenu

Projet Proxmox Usine Vonnas

Contexte

Mise en place d'une infrastructure de virtualisation haute disponibilite pour heberger des applications metier critiques (ERP, bases de donnees).

L'equipe d'administration est majoritairement orientee Windows, avec ouverture a la formation Linux/Proxmox. Les VMs de production tournent actuellement sur le DL360 Gen10 sous VMware avec backups Veeam 12 quotidiens.

Objectif

Construire un cluster Proxmox VE + Ceph sur 3 noeuds offrant : - haute disponibilite des VM, - stockage distribue (pool SSD pour la prod, pool HDD pour les archives), - maitrise des couts de licences, - capacite d'evolution.

Perimetre technique

Materiel existant

  • Serveur 1 — HP DL380 Gen10 (batiment A)
  • 1x Intel Xeon Gold 5120 (14 coeurs)
  • 128 Go RAM
  • 5x SSD 500 Go
  • NIC integree : HPE 534FLR-SFP+ (701531-001) — Broadcom BCM57810S, 2 ports SFP+ 10G

  • Serveur 2 — HP DL380 Gen10 (batiment B, identique serveur 1)

  • NIC integree : HPE 534FLR-SFP+ (701531-001) — Broadcom BCM57810S, 2 ports SFP+ 10G

  • Serveur 3 — HP DL360 Gen10 (batiment B, libere apres migration)

  • 2x Intel Xeon Silver 4214 (24 coeurs total)
  • 256 Go RAM
  • 4x HDD 2 To
  • Interfaces 1G uniquement — NIC 10G SFP+ a ajouter
  • Heberge actuellement les VMs de production sous VMware

  • Transceivers existants — 4x HPE 455885-001 (10GBASE-SR, 850nm, 300m sur OM3)

  • Inutilisables sur fibre OM2 a 150m (SR limite a 82m sur OM2)
  • Conserves en spare pour usage futur sur distances courtes

Disposition physique

  • Batiment A : DL380 #1
  • Batiment B : DL380 #2, DL360 Gen10
  • Liaison inter-batiments : 2 fibres optiques 50/125 um OM2 — 150 m disponibles

Contraintes reseau

Fibre OM2 a 150 m

La fibre OM2 a 150 m exclut le 10GBASE-SR (limite a 82 m). Seul le 10GBASE-LRM (1310 nm, portee 220 m sur OM2) est compatible.

Fibre 10GBASE-SR (850 nm) 10GBASE-LRM (1310 nm)
OM1 62,5/125 um 33 m 220 m
OM2 50/125 um 82 m 220 m
OM3 50/125 um 300 m 220 m

Pas de fallback automatique

Les modules SFP+ 10G ne font pas d'auto-negociation sur la vitesse. En cas de signal insuffisant, le lien ne monte pas — pas de repli a 1G.

Separation des reseaux

  • Reseau Ceph : isole physiquement, sans route vers la production
  • Reseau production/management : via infrastructure Fortinet existante (1Gb)
  • VLAN 1 : Management Proxmox (10.0.1.0/24)
  • VLAN 30 : VM Production (192.168.1.0/24)

Solution retenue — Solution C : Full Mesh 100% Broadcom 534FLR

Principe

Topologie Full Mesh point-a-point (chaque serveur connecte directement aux deux autres, sans switch). Les 3 serveurs utilisent la meme NIC Broadcom 534FLR-SFP+ (700751-B21) : - DL380 #1 et #2 : 534FLR-SFP+ (BCM57810S) — deja integrees - DL360 #3 : 534FLR-SFP+ (700751-B21) — a ajouter (28 EUR chez Renewtech, 66 en stock)

Ce choix elimine le risque de vendor-lock LRM : les 3 NICs sont identiques (Broadcom BCM57810S), toutes permissives avec les modules SFP+ tiers.

Ref. Proxmox : Full Mesh Network for Ceph Server

Pourquoi Solution C plutot que Solution A

La Solution A utilisait une NIC Intel X710-DA2 (727055-B21) pour le DL360. Or Intel ne liste pas le 10GBASE-LRM dans ses modules supportes, et le X710 est connu pour refuser certains modules tiers. En passant a une 534FLR-SFP+ identique aux DL380, on obtient : - Aucun vendor-lock SFP+ : Broadcom ne filtre pas les modules tiers - Conformite MSA garantie : 534FLR est SFF-8402 compliant, transceivers LRM FS.com sont SFF-8431 + IEEE 802.3aq compliant - Homogeneite totale : 3x la meme NIC (534FLR-SFP+), meme chipset (BCM57810S), meme driver (bnx2x), meme comportement

Compatibilite Solution C

Composant Compatibilite Detail
700751-B21 dans DL360 Gen10 Confirme FlexLOM compatible DL360 Gen10 (Renewtech)
534FLR-SFP+ + modules SFP+ tiers SFF-8402 compliant Broadcom BCM57810S, pas de vendor-lock
Transceivers LRM FS.com (SFP-10GLRM-31) SFF-8431 + IEEE 802.3aq Compatible avec tout port SFP+ MSA standard
3x 534FLR identiques Homogeneite totale Meme NIC, meme chipset, meme driver (bnx2x) sur les 3 serveurs

Contrainte physique batiment A

Le DL380 #1 est dans une armoire differente de l'armoire d'arrivee fibre (~10m de distance). Chaque liaison fibre inclut une jarretiere de brassage OM2 LC-LC 10m cote batiment A. Distance totale sur fibre : 10m (OM3 bat. A) + 150m (OM2 inter-bat.) + 10m (OM3 bat. B) = 170m (dans les 220m du LRM).

Architecture cible (3 noeuds)

Telecharger schema-proxmox-solution-c-mesh.drawio

Liaison Type Distance totale
DL380 #1 <-> DL380 #2 Jarretiere OM2 10m + Fibre OM2 150m + 2x LRM 170 m
DL380 #1 <-> DL360 #3 Jarretiere OM2 10m + Fibre OM2 150m + 2x LRM 170 m
DL380 #2 <-> DL360 #3 DAC SFP+ passif 3m 3 m

Configuration reseau Proxmox

Reseau physiquement isole, pas de VLANs necessaires. Sous-reseaux point-a-point :

Liaison Sous-reseau
DL380 #1 <-> DL380 #2 10.0.10.0/30
DL380 #1 <-> DL360 #3 10.0.10.4/30
DL380 #2 <-> DL360 #3 10.0.10.8/30

MTU 9000 sur toutes les interfaces.

BOM Solution C — Commande unique

Qte Reference Designation Fournisseur Prix HT
1 700751-B21 HPE 534FLR-SFP+ 10Gb 2-port FlexLOM (Broadcom BCM57810S) Renewtech.fr 28 EUR
4 #74669 Generique Compatible Module SFP+ 10GBASE-LRM 1310nm 220m DOM LC Duplex MMF/SMF FS.com 23 EUR/u = 92 EUR
1 #74619 Generique Compatible DAC Twinax Cuivre Passif SFP+ 10G 2m FS.com 13 EUR
4 Jarretiere OM3 LC-LC duplex 10m LSZH Amazon ~15 EUR/u = 60 EUR
4 873351-B21 HPE 400GB SAS 12G Write Intensive SFF SC Renewtech.fr 105 EUR/u = 420 EUR
TOTAL ~613 EUR HT

Commande FS.com passee le 26/03/2026

Commande #FS260326591012 — Client #1912134372 - 4x Module LRM generique #74669 (23€/u) + 1x DAC 2m generique #74619 (13€) = 105€ HT (livraison gratuite) - FS.com a confirme la compatibilite des modules generiques avec les cartes Broadcom BCM57810S (534FLR-SFP+)

Choix SSD : 873351-B21 (SAS WI) vs P18422-B21 (SATA RI)

Critere 873351-B21 (SAS WI) P18422-B21 (SATA RI)
Interface SAS 12G (natif P408i-a) SATA 6G (retrocompat)
Capacite 400 Go 480 Go
Write IOPS 100 000 20 000
Read IOPS 125 000 65 000
Endurance 10 DWPD (4 To/jour) 0.8 DWPD (384 Go/jour)
Write MB/s 1005 300
Prix x4 420 EUR 392 EUR

Choix retenu : 873351-B21 (SAS Write Intensive) pour 28 EUR de plus sur 4 disques : - 5x les IOPS en ecriture — critique pour les BDD avec Ceph replica 3 (chaque ecriture VM = 3 ecritures disque) - 12x l'endurance — le rebalancing Ceph lors de l'ajout du DL360 (phase 2) genere des centaines de Go d'ecritures massives. Un SSD RI pourrait subir du throttling thermique. - Interface SAS native sur le controleur P408i-a — pas de retrocompatibilite SATA

Avantages

  • Pas de switch = zero SPOF reseau, zero cout switch
  • Zero risque LRM : 3 NICs Broadcom, toutes permissives avec les modules SFP+ tiers
  • Conformite MSA : NIC SFF-8402 + transceivers SFF-8431, compatibilite garantie par les standards
  • Bande passante dediee par lien (pas de contention)
  • Topologie officiellement supportee par Proxmox pour Ceph
  • Homogeneite du cluster : 3 NICs Broadcom

Inconvenients

  • Necessite 2 fibres OM2 entre batiments (confirmees disponibles)
  • Pas d'evolutivite (ajout d'un 4e noeud = refonte reseau)
  • Configuration reseau Proxmox plus complexe (routage mesh)
  • Budget legerement superieur a la Solution A (~592 EUR vs ~430 EUR)

Plan B — 2x switch FS S3240-8T

Si on veut simplifier l'architecture en eliminant tout risque LRM cote NIC, ou si l'evolutivite est prioritaire.

Principe

Un switch dans chaque batiment. Les NICs ne voient que des DAC. Les LRM sont uniquement dans les switches.

Architecture Plan B

Telecharger schema-proxmox-solution2-switches.drawio

Toutes les NICs ne voient que des DAC. Les LRM sont uniquement dans les switches.

BOM complet Plan B

Reseau

Qte Reference Designation Fournisseur Prix HT
2 S3240-8T FS 8-port L2+ switch, 4x SFP+ 10G, fanless FS.com ~270 EUR/u = 540 EUR
1 727055-B21 HPE 10Gb 2-port SFP+ 562SFP+ (pour DL360) Renewtech/Cdiscount 53-70 EUR
4 LRM Intel compatible 10GBASE-LRM SFP+ 1310nm 220m (dans les switches) FS.com ~30 EUR/u = 120 EUR
1 DAC SFP+ actif 10m DL380 #1 -> switch bat. A (armoires differentes) FS.com ~62 EUR
2 DAC SFP+ 3m passif Switch bat. B -> DL380 #2 + DL360 FS.com 16 EUR/u = 32 EUR

DAC actif 10m obligatoire en bat. A

Le DL380 #1 et le switch S3240-8T sont dans des armoires differentes (~10m). Un DAC passif ne fonctionne pas au-dela de 7m. Le DAC actif integre de l'electronique pour amplifier le signal.

NIC existantes sur les DL380

Les DL380 utilisent leurs NIC integrees 534FLR-SFP+ (Broadcom BCM57810S). Seul le DL360 necessite l'achat d'une NIC 727055-B21.

SSD pour DL360 Gen10

Qte Reference Designation Fournisseur Prix HT
4 873351-B21 HPE 400GB SAS 12G Write Intensive SFF SC Renewtech.fr 105 EUR/u = 420 EUR

Budget total Plan B

Poste Source Montant HT
2x Switch S3240-8T FS.com 540 EUR
1x NIC 727055-B21 (DL360) Renewtech/Cdiscount 53-70 EUR
4x Transceiver LRM FS.com 120 EUR
1x DAC actif 10m FS.com 62 EUR
2x DAC passif 3m FS.com 32 EUR
4x SSD 400GB 873351-B21 Renewtech.fr 420 EUR
TOTAL Plan B ~1003-1020 EUR HT

Avantage FS.com

Tout le materiel reseau (switches, transceivers, DAC) vient du meme fournisseur. Compatibilite garantie entre switch S3240-8T et transceivers LRM FS.com. Support unifie.

Avantages Plan B

  • Zero risque LRM — les NICs ne voient que des DAC
  • Ecosysteme FS.com homogene (switch + transceivers + DAC)
  • Switch manageable L2+ (OSPF, QoS, VLAN, ACL, stackable)
  • 8 ports RJ45 1G bonus par switch
  • Evolutif (ajouter un 4e noeud = brancher un DAC dans le switch)

Inconvenients Plan B

  • Cout total ~960 EUR (vs ~592 EUR pour la Solution C)
  • 2 switches = 2 equipements supplementaires a gerer
  • SPOF : si un switch tombe, le noeud du batiment correspondant est isole

Solutions abandonnees

Solution A — Full Mesh avec 727055-B21 (ecartee)

Meme architecture Full Mesh point-a-point que la Solution C, mais avec une NIC Intel X710-DA2 (727055-B21) pour le DL360 au lieu de la Broadcom P210P.

Pourquoi ecartee : 1. La NIC Intel X710-DA2 (727055-B21) presente un risque de vendor-lock sur les modules LRM : Intel ne liste pas le 10GBASE-LRM dans les modules officiellement supportes du X710 2. L'Intel X710 est connu pour refuser certains modules SFP+ tiers (filtrage firmware) 3. Le risque LRM n'etait pas resolu — le DL360 recevait 1 transceiver LRM sur le lien fibre vers le DL380 #1 4. Budget etait ~430 EUR HT mais avec un risque LRM non resolu qui pouvait imposer un basculement vers le Plan B (~1000 EUR)

Sources : - Intel X710 supported modules — LRM non liste officiellement - Forum Intel - X710 compatible transceivers

Solution ecartee — Switch Aruba 2920 (J9727A)

Pourquoi ecartee : 1. Le J9727A (Aruba 2920-24G-PoE+) n'a pas de ports SFP+ integres — necessite 2 modules J9731A (175 EUR/u) 2. Le JD097C (DAC FlexNetwork) initialement prevu est incompatible avec les switches Aruba — il faut des J9283D (gamme Aruba). Source : HPE Airheads - FlexNetwork vs Aruba 3. Surdimensionne : 24 ports RJ45 PoE+ pour un reseau stockage dedie 4. La majorite des pieces etaient en rupture chez Renewtech 5. Cout total (~840 EUR) sans avantage par rapport au Plan B FS.com (meilleure garantie compatibilite) 6. La decouverte des NICs 534FLR-SFP+ integrees dans les DL380 rend le switch central inutile pour 2 des 3 noeuds

Compatibilite verifiee (pour memoire) : - J9152D LRM sur Aruba 2920 : valide (Transceiver Guide 5200-3362) - J9731A module sur 2920 : valide (Aruba 2920 Options)

Solution ecartee — Switch initial JL683B (Aruba Instant On 1930)

Pourquoi ecartee : Pas de circuit EDC (Electronic Dispersion Compensation) dans les ports SFP+. Incompatible physiquement avec le 10GBASE-LRM. Limitation hardware, aucun contournement possible.


Architecture stockage Ceph

Pool SSD — Production

Noeud Disques Capacite brute
DL380 #1 5x SSD 500 Go 2,5 To
DL380 #2 5x SSD 500 Go 2,5 To
DL360 #3 4x SSD 400 Go (873351-B21, SAS 12G WI) 1,6 To
Total brut 6,6 To
  • Replica size=3 (phase 2) → capacite utile : ~2,2 To
  • Seuil nearfull Ceph (80%) → ~1,7 To confortablement allouables
  • Charge initiale : 2 VMs x 200 Go = 400 Go → ~23% d'utilisation
  • Usage : VMs de production (ERP, BDD)

Pool HDD — Archives et backups

Noeud Disques Capacite brute
DL360 #3 4x HDD 2 To (MM2000JEFRC, existants, 1 HDD retire) 8 To
  • Replica size=1 (un seul noeud avec des HDD) → ~6,4 To a 80%
  • Usage : stockage d'archives, ISOs, templates, backups secondaires

Pourquoi replica 1 sur le pool HDD

Les 4 HDD sont sur un seul noeud (DL360). Ceph ne peut pas repliquer sur d'autres hosts. Replica size=1 est acceptable pour du backup (les donnees critiques sont sur le pool SSD en replica 3).

Configuration CRUSH rules :

# IMPORTANT : creer la rule SSD AVANT d'ajouter les OSD HDD
ceph osd crush rule create-replicated replicated_ssd default host ssd
ceph osd pool set ssd-pool crush_rule replicated_ssd

# Puis creer la rule et le pool HDD
ceph osd crush rule create-replicated replicated_hdd default host hdd
ceph osd pool create hdd-pool 32 32 replicated replicated_hdd

Creer la rule SSD avant d'ajouter les HDD

Sinon Ceph rebalancera les donnees SSD sur les HDD (rule par defaut = tous les disques). Source : Proxmox forum - Ceph SSD and HDD pools

Haute disponibilite

  • Cluster Proxmox 3 noeuds, quorum 2/3
  • Tolerance a la perte d'un serveur
  • Redemarrage automatique des VM sur les noeuds restants
  • Ceph replica size=3 sur pool SSD (phase 2)

Arbitrage technologique

Choix retenu : Proxmox + Ceph plutot que Hyper-V pour architecture 3 noeuds.

Rationnel : - A 2 noeuds, Hyper-V + StarWind vSAN Free etait competitif - A 3 noeuds, le stockage partage Hyper-V impose : - StarWind payant (~2 500 $/an), ou - Storage Spaces Direct + Windows Datacenter (~20 000 $ licences) - Proxmox + Ceph apporte stockage distribue natif sans cout de licence equivalent

Charge initiale cible

  • 2 VM de production (actuellement sur DL360 sous VMware)
  • Taille : 200 Go chacune (400 Go total)
  • RAM : 16 Go + 32 Go (48 Go total)

Plan de deploiement

Phase 0 — Commande materiel (J0)

Commandes passees :

FS.com — Commande #FS260326591012 du 26/03/2026 ✅

Qte FS ID Designation Prix HT/u Total HT
4 #74669 Generique Compatible Module SFP+ 10GBASE-LRM 1310nm 220m DOM LC Duplex 23,00 EUR 92,00 EUR
1 #74619 Generique Compatible DAC Twinax Cuivre Passif SFP+ 10G 2m 13,00 EUR 13,00 EUR
Sous-total FS.com 105,00 EUR

Compatibilite confirmee par FS.com

FS.com a confirme que les modules generiques (#74669) sont compatibles avec les cartes Broadcom BCM57810S (534FLR-SFP+).

Renewtech.fr — A commander :

Qte Reference Designation Lien Prix HT
1 700751-B21 HPE 534FLR-SFP+ 10Gb 2-port FlexLOM (Broadcom BCM57810S) renewtech.fr/hp-700751-b21 28 EUR
4 873351-B21 HPE 400GB SAS 12G Write Intensive SFF SC renewtech.fr/hp-873351-b21 105 EUR/u = 420 EUR
Sous-total Renewtech 448 EUR

Amazon — Commande passee le 26/03/2026 ✅

Qte Reference Designation Prix HT
4 Jarretiere OM3 LC-LC duplex 10m LSZH ~15 EUR/u = 60 EUR
Sous-total Amazon ~60 EUR

4 jarretieres OM3 (2 par batiment)

  • Bat. A (admin) : 2x jarretieres panneau brassage → DL380 #1 (port 1 et port 2)
  • Bat. B (usine) : 2x jarretieres panneau brassage → DL380 #2 (port 1) + DL360 (port 1)
  • Distance totale par lien fibre : 10m (OM3) + 150m (OM2) + 10m (OM3) = 170m (dans les 220m du LRM)
  • OM3 retrocompatible avec OM2, aucun impact negatif
TOTAL COMMANDE ~613 EUR HT

Phase 1 — Cluster 2 noeuds DL380, migration prod (J+7 a J+21)

Les 2 DL380 sont disponibles immediatement. Le DL360 reste sous VMware jusqu'a la bascule.

Reseau phase 1 : - 1 seule fibre OM2 utilisee (DL380 #1 <-> DL380 #2, 534FLR <-> 534FLR) - Transceivers LRM dans les 534FLR (Broadcom) — faible risque de compatibilite - 2e port de chaque 534FLR reste libre pour la phase 2

Config reseau DL380 bat. A :

auto <iface_534flr_port1>
iface <iface_534flr_port1> inet static
    address 10.0.10.1/30
    mtu 9000

Config reseau DL380 bat. B :

auto <iface_534flr_port1>
iface <iface_534flr_port1> inet static
    address 10.0.10.2/30
    mtu 9000

Ceph a 2 noeuds — gestion du quorum : Ceph exige un nombre impair de monitors. A 2 noeuds physiques, creer un 3e monitor sur une VM legere (Debian minimal) sur un des DL380.

Pool SSD initial :

pveceph osd create /dev/sdX   # x5 par noeud (10 OSD total)
ceph osd crush rule create-replicated replicated_ssd default host ssd
pveceph pool create ssd-pool --size 2 --min_size 1
ceph osd pool set ssd-pool crush_rule replicated_ssd

Phase 1 : replica size=2, min_size=1

Perte d'un DL380 = donnees accessibles mais sans redondance. Backups Veeam quotidiens couvrent ce risque. Ne pas supprimer les backups VMware pendant au moins 1 mois.

Jour Action
J+7 Reception materiel, inventaire
J+8 Installer transceivers LRM dans les 534FLR des 2 DL380, cabler fibre OM2 #1
J+8 Valider le lien 10G (iperf3, MTU 9000)
J+9 Installer Proxmox VE 8.x sur les 2 DL380
J+9 Configurer reseau 10G point-a-point
J+10 Creer cluster Proxmox, deployer Ceph (3 monitors dont 1 VM arbitre)
J+10 Creer pool SSD (size=2), tester avec rados bench
J+11 Configurer Veeam 12 : ajouter Proxmox comme cible de restauration
J+12-14 Restaurer VMs VMware -> Proxmox via Veeam 12 (Instant Recovery)
J+15-17 Tests fonctionnels des VMs (ERP, BDD)
J+18 Bascule prod le week-end : DNS, services, validation utilisateurs
J+21 DL360 libere de VMware

Migration VMware -> Proxmox via Veeam 12 : 1. Verifier version Veeam >= 12.1 (support natif Proxmox) 2. Dans Veeam : Backup Infrastructure -> Managed Servers -> Add -> Proxmox VE 3. Clic droit sur backup VMware -> Restore to Proxmox VE 4. Veeam convertit automatiquement VMDK -> format Proxmox 5. Plan B migration : export OVA depuis VMware -> qm importovf sur Proxmox

Drivers apres migration

Les drivers VMware (vmxnet3, pvscsi) different de Proxmox (virtio). Prevoir une restauration test sur une VM non-critique avant le week-end de bascule.

Phase 2 — Ajout DL360, passage 3 noeuds (J+21 a J+28)

Jour Action
J+21 Wipe DL360, installer 4x SSD 873351-B21 + NIC 534FLR-SFP+ (700751-B21)
J+22 Installer Proxmox VE sur DL360
J+22 Cabler fibre OM2 #2 (DL380 #1 port 2 <-> DL360 port 1) + DAC (DL380 #2 port 2 <-> DL360 port 2)
J+23 Activer interfaces mesh sur les 3 serveurs
J+23 Joindre le cluster Proxmox, ajouter DL360 comme noeud Ceph (OSD + monitor)
J+24 Supprimer le monitor-arbitre VM, passer replica size=3
J+24-26 Laisser Ceph rebalancer
J+26 Creer pool HDD (4x HDD 2To du DL360) avec CRUSH rule dediee
J+27-28 Tests de recette complets

Config reseau phase 2 (interfaces a activer) :

# DL380 bat. A — activer port 2 de la 534FLR
auto <iface_534flr_port2>
iface <iface_534flr_port2> inet static
    address 10.0.10.5/30   # lien fibre vers DL360
    mtu 9000

# DL380 bat. B — activer port 2 de la 534FLR
auto <iface_534flr_port2>
iface <iface_534flr_port2> inet static
    address 10.0.10.9/30   # lien DAC vers DL360
    mtu 9000

# DL360 — NIC Broadcom P210P
auto ens3f0
iface ens3f0 inet static
    address 10.0.10.6/30   # lien fibre vers DL380-A
    mtu 9000

auto ens3f1
iface ens3f1 inet static
    address 10.0.10.10/30  # lien DAC vers DL380-B
    mtu 9000

Passage replica size=3 :

pveceph createmon                          # 3e monitor sur DL360
pveceph destroymon <vm-mon-id>             # supprimer l'arbitre VM
ceph osd pool set ssd-pool size 3
ceph osd pool set ssd-pool min_size 2


Checklist de recette

Phase 1 — 2 noeuds

  • Lien 10G fibre OM2 UP entre DL380 (iperf3 > 9 Gbps)
  • MTU 9000 valide (ping -M do -s 8972)
  • Ceph HEALTH_OK avec 3 monitors (2 physiques + 1 VM)
  • Pool SSD cree, replica size=2
  • Ecriture/lecture test (rados bench)
  • VM de prod restauree via Veeam et fonctionnelle
  • Applications metier OK (ERP, BDD)
  • Backup Veeam de la nouvelle VM Proxmox OK
  • Test perte d'un noeud : VM redemarre sur l'autre

Phase 2 — 3 noeuds

  • 3 liens 10G UP (fibre 1, fibre 2, DAC)
  • iperf3 > 9 Gbps sur chaque lien
  • Ceph HEALTH_OK, 3 monitors natifs (VM arbitre supprimee)
  • Pool SSD replica size=3 actif
  • Pool HDD cree avec CRUSH rule dediee
  • Rebalancing termine (ceph -s : no degraded)
  • Test perte d'un noeud quelconque -> VMs survivent
  • Test perte du noeud bat. A -> bat. B continue seul
  • Performances I/O acceptables (fio sur volume Ceph)

Considerations Ceph

Scenario 10G inter-batiments Commentaire
Lab / dev / test Tres bien
Petite prod, faible I/O Acceptable
VMs avec bases de donnees Limite Latence perceptible
Recovery / rebalancing Ceph Lent Peut durer longtemps sur gros volumes
Production intensive Insuffisant 10G recommande minimum

La replication Ceph (facteur 3 par defaut) genere 3x le trafic d'ecriture sur le cluster network. Sur la liaison 10G inter-batiments, la bande passante effective pour les VMs sera reduite lors des phases de recovery.

References documentaires

Voir aussi