Aller au contenu

Projet Proxmox Usine Vonnas

Contexte

Mise en place d'une infrastructure de virtualisation haute disponibilite pour heberger des applications metier critiques (ERP, bases de donnees).

L'equipe d'administration est majoritairement orientee Windows, avec ouverture a la formation Linux/Proxmox.

Objectif

Construire un cluster Proxmox VE + Ceph sur 3 noeuds offrant : - haute disponibilite des VM, - stockage distribue, - maitrise des couts de licences, - capacite d'evolution.

Perimetre technique

Materiel disponible

  • Serveur 1 — HP DL380 Gen10
  • 1x Intel Xeon Gold 5120 (14 coeurs)
  • 128 Go RAM
  • 5x SSD 500 Go
  • 1x carte fibre dual-port 10Gb SFP+

  • Serveur 2 — HP DL380 Gen10 (identique serveur 1)

  • Serveur 3 — HP DL360 Gen9

  • 2x Intel Xeon Silver 4214 (24 coeurs total)
  • 256 Go RAM
  • 4x HDD 2 To
  • carte 10Gb SFP+ a ajouter (HPE 530SFP+ ou Mellanox ConnectX-3)

  • Switch stockage dedie — HPE Aruba Instant On 1930 24G PoE (JL683B)

  • 4 ports SFP+ (modules HP)

Disposition physique

  • Armoire A : DL380 #1, DL360 Gen9, switch Aruba
  • Armoire B : DL380 #2
  • Liaison inter-armoires : fibre LC-LC OM4

Architecture reseau

Separation des reseaux

  • Reseau Ceph : isole physiquement sur Aruba, sans route vers la production
  • Reseau production/management : via infrastructure Fortinet existante

Cablage 10Gb (switch Aruba)

  • SFP+1 -> DL380 #1 (DAC cuivre)
  • SFP+2 -> DL360 Gen9 (DAC cuivre)
  • SFP+3 -> DL380 #2 (fibre LC-LC OM4 inter-armoires)
  • SFP+4 -> libre (spare, futur 4e noeud)

Chaque lien 10Gb est en trunk avec : - VLAN 10 : Ceph Public (10.0.10.0/24) - VLAN 20 : Ceph Cluster (10.0.20.0/24)

MTU 9000 active sur interfaces 10Gb + switch Aruba.

Reseau Fortinet (1Gb)

  • VLAN 1 : Management Proxmox (10.0.1.0/24)
  • VLAN 30 : VM Production (192.168.1.0/24)

Architecture stockage Ceph

  • Pool SSD : hebergement VM de production (ERP/BDD)
  • Pool HDD : sauvegardes et donnees non critiques
  • Separation logique par CRUSH rules

Haute disponibilite

  • Cluster Proxmox 3 noeuds, quorum 2/3
  • Tolerance a la perte d'un serveur
  • Redemarrage automatique des VM sur les noeuds restants
  • Ceph replica sur 3 noeuds (a valider selon capacite/disques disponibles)

Arbitrage technologique

Choix retenu : Proxmox + Ceph plutot que Hyper-V pour architecture 3 noeuds.

Rationnel : - A 2 noeuds, Hyper-V + StarWind vSAN Free etait competitif - A 3 noeuds, le stockage partage Hyper-V impose : - StarWind payant (~2 500 $/an), ou - Storage Spaces Direct + Windows Datacenter (~20 000 $ licences) - Proxmox + Ceph apporte stockage distribue natif sans cout de licence equivalent

Charge initiale cible

  • 2 VM de production
  • Taille : 200 Go chacune (400 Go total)
  • RAM : 16 Go + 32 Go (48 Go total)
  • Etat actuel : ces VM tournent deja sur DL360 sans probleme

Points de vigilance identifies

  1. Homogeneite SSD Ceph
  2. DL360 sans SSD a ce stade
  3. Melange SSD/HDD dans un meme pool prod deconseille (impact latence/IOPS)
  4. Resilience pool SSD
  5. Si pool SSD limite aux 2 DL380 : replica size=2 (a expliciter)
  6. Pour replica size=3 SSD : ajouter du SSD sur DL360
  7. Compatibilite carte 10Gb DL360
  8. valider firmware/driver/stabilite avec environnement Proxmox

Decision materielle en discussion

Prix constate : SSD occasion ~280 EUR.

Orientation proposee : - minimum : 1 SSD enterprise sur DL360 - recommande : 2 SSD enterprise sur DL360 pour marge et evolutivite

Prochaines etapes

  1. Valider modele de carte 10Gb pour DL360
  2. Valider strategie Ceph replica (size/min_size) par pool
  3. Statuer sur ajout SSD DL360 (capacite + nombre)
  4. Produire HLD/LLD et plan de deploiement
  5. Definir tests de recette (panne noeud, perf, restauration)

Voir aussi