PACK PANNE — Site Vonnas¶
KIT DE SURVIE IT
Ce document compile toute la documentation necessaire pour survivre aux pannes et restaurer l'infrastructure du site Vonnas. Date de generation : 2026-02-17 | Version : 1.0 Systemes couverts : 14 actifs (10 C1 + 4 C2) Couverture : 7/10 sections
Stockage hors-infrastructure OBLIGATOIRE
Ce document doit etre stocke HORS de l'infrastructure documentee : - Cle USB chiffree dans le coffre-fort IT - Impression papier dans chaque salle serveur - NAS local isole (non dependant de l'infra principale)
Pour generer le PDF : dans Obsidian, ouvrir ce fichier → Exporter en PDF (les embeds se resolvent automatiquement).
Table des matieres¶
- Vue d'ensemble infrastructure
- Fiches reflexes
- Procedures de restauration
- Matrice des sauvegardes
- Credentials d'urgence
- Guide "Tout est down"
- Annuaire fournisseurs
- Communication de crise
- Plan de reprise (PRA)
- Tests et validation
1. Vue d'ensemble infrastructure¶
1.1 Systemes critiques¶
| # | Systeme | Type | Criticite | Localisation | IP principale |
|---|---|---|---|---|---|
| 1 | soresx1 | Hyperviseur ESXi 6.5 (CLU-Soreal) | C1 | Bureaux | 10.1.230.101 / iLO 10.1.250.10 |
| 2 | soresx2 | Hyperviseur ESXi 6.5 (CLU-Soreal) | C1 | Bureaux | 10.1.230.102 / iLO 10.1.250.20 |
| 3 | soresxback | Hyperviseur ESXi 6.7 (PRA + Usine) | C1 | Usine | 10.1.230.103 / iLO 10.1.250.50 |
| 4 | SAN01 | Stockage HPE MSA 2040 (SPOF cluster) | C1 | Bureaux | iLO 10.1.250.1 / 10.1.250.2 |
| 5 | SORDC1 | DC principal (AD/DNS/DHCP) | C1 | Bureaux (VM) | 10.1.230.120 |
| 6 | SORDC2 | DC secondaire (AD/DNS/DHCP) | C1 | Usine (VM) | 10.1.230.121 |
| 7 | VCSA7 | vCenter Server Appliance | C1 | Bureaux (VM) | 10.1.230.40 |
| 8 | _SRLV-SERV-BDD | ERP Nutriciel — BDD Oracle+PostgreSQL | C1 | Usine (VM) | 10.1.230.130 |
| 9 | _SRLV-SERV-APP | ERP Nutriciel — App serveur | C1 | Usine (VM) | 10.1.230.131 |
| 10 | SorSauvegarde | Serveur Veeam B&R | C1 | Bureaux | 10.1.230.220 / iLO 10.1.250.220 |
| 11 | ESMC_Appliance | Antivirus ESET (console) | C2 | Bureaux (VM) | 10.1.230.50 |
| 12 | SorM365 | Relais SMTP imprimantes | C2 | Bureaux (VM) | 10.1.230.160 |
| 13 | SORERLA | Gestion stations carburant | C2 | Bureaux (VM) | 10.1.230.150 |
| 14 | srv-backup | UrBackup (postes usine) | C2 | Bureaux | 10.1.230.221 |
1.2 Carte de dependances¶
Carte de Dependances - Site Vonnas¶
Derniere MAJ : 2026-02-12 | Systemes : 14 actifs | Site : Vonnas (Bureaux + Usine) Source : VMware vSphere + FortiGate CLI (configs + tables MAC 558 entrees)
Diagramme de dependances¶
Equipements¶
| Nom | IP | Modele | Emplacement | Criticite | Vague |
|---|---|---|---|---|---|
| ALIM_B | - | Alimentation Bureaux + Onduleur Riello | Bureaux | infra | 0 |
| ALIM_U | - | Alimentation Usine | Usine | infra | 0 |
| FW | - | Fortigate 60F, S/N GT60FTK2109CWPM, Routeur inter-VLAN + FortiLink | Bureaux | infra | 0 |
| SW_ADMIN | - | BAIE_ADMINISTRATION, FortiSwitch S124E, Coeur bureaux (16/28 ports) | Bureaux | infra | 0 |
| SW_BUR | - | FortiSwitch bureaux, BUREAU_48POE + BUREAU_24 + BUR_QUALITE_8P | Bureaux | infra | 0 |
| SW_INDUS | - | BAIE_INDUS, FortiSwitch S108F, port1 seul = SPOF | Usine | SPOF | 0 |
| SW_U | - | Switches HP 1910-16G (~10 usine via BAIE_INDUS port1) | Usine | infra | 0 |
| SAN01 | - | HPE MSA 2040 SAS, SPOF cluster | Bureaux | C1 | 1 |
| ESX1 | - | soresx1, DL380 Gen9, ESXi 6.5, Trunk 2/4 actifs | Bureaux | C1 | 1 |
| ESX2 | - | soresx2, DL380 Gen9, ESXi 6.5 | Bureaux | C1 | 1 |
| ESXB | - | soresxback, DL360 Gen10, ESXi 6.7, PRA + Prod usine | Usine | C1 | 1 |
| DC1 | - | SORDC1, DC/DNS/DHCP principal, Bureaux | Bureaux | C1 | 2 |
| DC2 | - | SORDC2, DC/DNS/DHCP secondaire, Usine | Usine | C1 | 2 |
| VCSA | - | VCSA7, vCenter 6.7 | Bureaux | C1 | 3 |
| BDD | - | _SRLV-SERV-BDD, Oracle + PostgreSQL | Usine | C1 | 4 |
| APP | - | _SRLV-SERV-APP, ERP Nutriciel | Usine | C1 | 4 |
| ESMC | - | ESMC_Appliance, Antivirus ESET | Bureaux | C2 | 5 |
| M365 | - | SorM365, Relais SMTP | Bureaux | C2 | 5 |
| ERLA | - | SORERLA, Stations carburant, Win 2012 | Bureaux | C2 | 5 |
| VOIP | - | 3CX VoIP, SBC + 20 Yealink | Bureaux | C2 | 5 |
| VEEAM | - | SorSauvegarde, Veeam B&R | Bureaux | C1 | 6 |
| URBACK | - | srv-backup, UrBackup | Bureaux | C2 | 6 |
Connexions (dependances)¶
| Source | Destination | Type | Detail | Vague |
|---|---|---|---|---|
| ALIM_B | FW | Hard | Alimentation | 0 |
| ALIM_B | SW_ADMIN | Hard | Alimentation | 0 |
| FW | SW_ADMIN | Hard | FortiLink | 0 |
| SW_ADMIN | SW_BUR | Hard | FortiLink | 0 |
| SW_ADMIN | SW_INDUS | Hard | FortiLink | 0 |
| ALIM_U | SW_U | Hard | Alimentation | 0 |
| SW_INDUS | SW_U | Hard | port1 unique | 0 |
| SW_ADMIN | ESX1 | Hard | Trunk_ESXI1, Static 4x1G, 2 DOWN | 0-1 |
| SW_ADMIN | ESX2 | Hard | Trunk_ESXI2, Static 4x1G | 0-1 |
| ALIM_B | SAN01 | Hard | Alimentation | 0-1 |
| ALIM_B | ESX1 | Hard | Alimentation | 0-1 |
| ALIM_B | ESX2 | Hard | Alimentation | 0-1 |
| ALIM_U | ESXB | Hard | Alimentation | 0-1 |
| SAN01 | ESX1 | Hard | Stockage SAS | 1 |
| SAN01 | ESX2 | Hard | Stockage SAS | 1 |
| ESX1 | DC1 | Hard | Hyperviseur | 1-2 |
| ESX2 | DC1 | Hard | Hyperviseur | 1-2 |
| SAN01 | DC1 | Hard | Stockage | 1-2 |
| ESXB | DC2 | Hard | Hyperviseur | 1-2 |
| ESX1 | VCSA | Hard | Hyperviseur | 1-3 |
| ESX2 | VCSA | Hard | Hyperviseur | 1-3 |
| SAN01 | VCSA | Hard | Stockage | 1-3 |
| ESXB | BDD | Hard | Hyperviseur | 1-4 |
| BDD | APP | Hard | Base de donnees | 4 |
| ESX1 | ESMC | Hard | Hyperviseur | 1-5 |
| ESX2 | ESMC | Hard | Hyperviseur | 1-5 |
| SAN01 | ESMC | Hard | Stockage | 1-5 |
| ESX1 | M365 | Hard | Hyperviseur | 1-5 |
| ESX2 | M365 | Hard | Hyperviseur | 1-5 |
| SAN01 | M365 | Hard | Stockage | 1-5 |
| ESX1 | ERLA | Hard | Hyperviseur | 1-5 |
| ESX2 | ERLA | Hard | Hyperviseur | 1-5 |
| SAN01 | ERLA | Hard | Stockage | 1-5 |
| SW_BUR | VOIP | Hard | Reseau PoE | 0-5 |
| FW | VOIP | Hard | VLAN 50 | 0-5 |
| VCSA | VEEAM | Hard | vCenter API | 3-6 |
| FW | VEEAM | Hard | Reseau | 0-6 |
| SW_ADMIN | URBACK | Hard | Reseau | 0-6 |
| DC1 | DC2 | Soft | replication AD | 2 |
| DC2 | DC1 | Soft | replication AD | 2 |
| DC1 | ESMC | Soft | DNS | 2-5 |
| DC1 | ERLA | Soft | DNS | 2-5 |
| VCSA | ESX1 | Soft | gestion cluster, VMs tournent sans | 3-1 |
| VCSA | ESX2 | Soft | gestion cluster, VMs tournent sans | 3-1 |
| VEEAM | ESXB | Soft | replication PRA | 6-1 |
| FW | SW_ADMIN | Soft | FortiLink mgmt, switches passent trafic sans | 0 |
Tableau des dependances¶
| Systeme | Type | Depend de | Mode degrade |
|---|---|---|---|
| Fortigate 60F (GT60FTK2109CWPM) | Hard | Alimentation bureaux, onduleur Riello | Ne demarre pas |
| BAIE_ADMINISTRATION (S124E) | Hard | Alimentation, Fortigate (FortiLink) | Ne demarre pas |
| FortiSwitch bureaux (48POE+24+QUAL) | Hard | BAIE_ADMINISTRATION (FortiLink cascade) | Ne demarre pas |
| BAIE_INDUS (S108F) | Hard | BAIE_ADMINISTRATION (FortiLink) | Ne demarre pas |
| Switches HP 1910 usine (~10) | Hard | Alimentation usine, BAIE_INDUS port1 (lien unique) | Ne demarre pas |
| SAN01 | Hard | Alimentation bureaux, onduleur Riello | Ne demarre pas |
| soresx1 | Hard | Alimentation, SAN01, BAIE_ADMIN (Trunk_ESXI1 Static 4x1G, 2/4 DOWN) | Ne demarre pas |
| soresx2 | Hard | Alimentation, SAN01, BAIE_ADMIN (Trunk_ESXI2 Static 4x1G) | Ne demarre pas |
| soresxback | Hard | Alimentation usine, switches usine (stockage local) | Ne demarre pas |
| SORDC1 | Hard | CLU-Soreal (soresx1/soresx2), SAN01 | Ne demarre pas |
| SORDC2 | Hard | soresxback | Ne demarre pas |
| VCSA7 | Hard | CLU-Soreal, SAN01 | Ne demarre pas |
| _SRLV-SERV-BDD | Hard | soresxback | Ne demarre pas |
| _SRLV-SERV-APP | Hard | soresxback, _SRLV-SERV-BDD (ordre strict) | Ne demarre pas |
| ESMC_Appliance | Hard | CLU-Soreal, SAN01 | Ne demarre pas |
| SorM365 | Hard | CLU-Soreal, SAN01 | Ne demarre pas |
| SORERLA | Hard | CLU-Soreal, SAN01 | Ne demarre pas |
| 3CX VoIP (SBC + 20 Yealink) | Hard | FortiSwitch bureaux (48POE + BUREAU_24), Fortigate (VLAN 50) | Ne demarre pas |
| SorSauvegarde | Hard | Reseau, vCenter (pour jobs VMware) | Ne demarre pas |
| srv-backup | Hard | Reseau | Ne demarre pas |
| SORDC1 | Soft | SORDC2 | Fonctionne seul, pas de redondance AD |
| SORDC2 | Soft | SORDC1 | Fonctionne seul, FSMO non disponibles |
| soresx1/soresx2 | Soft | VCSA7 | VMs tournent, pas de gestion cluster |
| FortiSwitch (5) | Soft | Fortigate (FortiLink) | Switches passent le trafic, pas de management centralise |
| ESMC_Appliance | Soft | Internet | Pas de MAJ signatures, protection locale active |
| ESMC_Appliance | Soft | SORDC1/SORDC2 | DNS degrade |
| SorSauvegarde | Soft | SAN01 | Pas de snapshot VMware, backup impossible |
| SORERLA | Soft | SORDC1/SORDC2 | Authentification AD degradee |
| 3CX VoIP | Soft | SORDC1/SORDC2 | Telephonie fonctionne, pas de resolution DNS interne |
Dependances circulaires¶
Cycle 1 : SORDC1 ↔ SORDC2 (Replication AD)¶
- Nature : replication Active Directory bidirectionnelle
- Resolution en crise : demarrer SORDC1 en premier (detient les roles FSMO). SORDC2 se resynchronise automatiquement apres.
- Si SORDC1 est perdu : SORDC2 peut saisir les roles FSMO (procedure dans fiche reflexe SORDC2)
Cycle 2 : VCSA7 ↔ ESXi (Gestion VMware)¶
- Nature : vCenter tourne sur le cluster qu'il gere
- Resolution en crise : les ESXi demarrent sans vCenter. Les VMs a autostart redemarrent. vCenter se relance tout seul une fois son hote ESXi operationnel.
- Mode degrade : sans vCenter, gerer chaque ESXi individuellement via https://IP_ESXi/ui
Ordre de restauration par vagues¶
Scenario : Panne totale site Vonnas (tout est down)¶
Deux chaines independantes a restaurer en parallele.
Chaine BUREAUX¶
| Vague | Systemes | Action | Temps estime |
|---|---|---|---|
| V0 | Alimentation + onduleur Riello | Verifier courant, rearmer onduleur | 5-10 min |
| V0 | Fortigate 60F (S/N GT60FTK2109CWPM) | Verifier boot, connectivite WAN, FortiLink actif | 2-5 min |
| V0 | BAIE_ADMINISTRATION (S124E) | Boot FortiLink auto depuis FortiGate — coeur bureaux | 2-3 min |
| V0 | FortiSwitch cascade (48POE → 24 + QUALITE) | Boot FortiLink cascade depuis BAIE_ADMIN | 2-3 min |
| V0 | BAIE_INDUS (S108F) | Boot FortiLink depuis BAIE_ADMIN — lien usine | 2-3 min |
| V1 | SAN01 | iLO 10.1.250.1 → Power On, attendre controllers OK | 5-10 min |
| V1 | soresx1 + soresx2 | iLO .250.10 + .250.20 → Power On (en parallele). ⚠️ soresx1 Trunk 2/4 actifs | 5-10 min |
| V2 | SORDC1 | Demarre avec VM autostart (ou Power On manuel dans ESXi) | 3-5 min |
| V3 | VCSA7 | Demarre apres SORDC1 (DNS necessaire) | 5-10 min |
| V5 | ESMC_Appliance, SorM365, SORERLA | Power On via vCenter | 3-5 min chacun |
| V5 | 3CX VoIP (SBC + 20 Yealink) | Verifier SBC sur BAIE_BUREAU_24 port22, Yealink boot auto PoE | 3-5 min |
| V6 | SorSauvegarde | Power On, verifier services Veeam, relancer jobs | 5-10 min |
| V6 | srv-backup | Power On, verifier service UrBackup | 3-5 min |
Chaine USINE (en parallele)¶
| Vague | Systemes | Action | Temps estime |
|---|---|---|---|
| V0 | Alimentation usine | Verifier courant usine | 5-10 min |
| V0 | Switches HP 1910 (~10) | Attendent boot — dependant de BAIE_INDUS port1 (SPOF) | 5-10 min |
| V1 | soresxback | iLO 10.1.250.50 → Power On | 5-10 min |
| V2 | SORDC2 | Autostart ou Power On via ESXi direct | 3-5 min |
| V4 | _SRLV-SERV-BDD | Power On EN PREMIER - attendre Oracle + PostgreSQL up | 5-10 min |
| V4 | _SRLV-SERV-APP | Power On EN SECOND apres BDD confirmee | 3-5 min |
Temps total estime : 30-45 minutes
Les deux chaines (bureaux + usine) se restaurent en parallele.
Source de verite
Pour la topologie reseau detaillee et les liens physiques : voir topologie-reseau-vonnas Pour le mapping port-par-port : voir cablage-brassage-vonnas
SPOF identifies (Single Points of Failure)¶
| Severite | SPOF | Impact | Mitigation |
|---|---|---|---|
| CRITIQUE | BAIE_INDUS port1 | ~73 equipements usine isoles (automates, PCs, HP 1910) | Lien unique 1 Gbps. Aucune redondance. Perte = usine deconnectee |
| CRITIQUE | SAN01 | Toutes les VMs bureaux DOWN | Dual controllers (failover auto). Panne totale = basculer replicas sur soresxback |
| CRITIQUE | soresxback | Production usine DOWN + PRA bureaux perdu | Aucune redondance locale. Reprise = activer replicas sur CLU-Soreal (bureaux) |
| CRITIQUE | Fortigate 60F | Plus d'acces Internet, plus de routage inter-VLAN, plus de FortiLink | Pas de firewall redondant. Unique equipement L3 sur site |
| IMPORTANT | Trunk_ESXI1 | soresx1 a 2/4 Gbps (port5+6 DOWN, Static pas LACP) | Verifier cablage/SFP port5+6. Pas de detection auto panne (pas LACP) |
| IMPORTANT | Alimentation electrique | Arret total du site concerne | Onduleur Riello (bureaux). Usine : onduleur non confirme |
Nettoyage a effectuer¶
sw_ADMIN (port21-22 BAIE_ADMIN)
Trunk ORPHELIN vers ex-HP ProCurve — ports DOWN. Action : supprimer config trunk, liberer 2 ports.
Voir aussi¶
- fiche-reflexe-SORDC1
- fiche-reflexe-SAN01
- fiche-reflexe-SORESX1
- fiche-reflexe-SORESXBACK
- fiche-reflexe-VCSA7
- fiche-reflexe-SRLV-SERV-APP
- fiche-reflexe-SRLV-SERV-BDD
- topologie-reseau-vonnas
- cablage-brassage-vonnas
- plan-adressage-ip-vonnas
Carte generee par Sentinel (A7) le 2026-02-12 | Site Vonnas Mise a jour avec donnees FortiLink et tables MAC (558 entrees)
1.3 Ordre de restauration¶
Deux chaines independantes — Bureaux + Usine en parallele
Chaine BUREAUX : V0 Alimentation + FortiGate + FortiSwitch → V1 SAN01 + soresx1/soresx2 → V2 SORDC1 → V3 VCSA7 → V5 Services (ESMC, M365, SORERLA, 3CX) → V6 Sauvegarde (Veeam, UrBackup)
Chaine USINE (en parallele) : V0 Alimentation usine → V1 soresxback → V2 SORDC2 → V4 _SRLV-SERV-BDD puis _SRLV-SERV-APP
Temps total estime : 30-45 minutes (les deux chaines en parallele).
2. Fiches reflexes¶
14/14 systemes couverts. Classees par criticite puis par ordre de restauration.
2.1 Infrastructure physique (C1)¶
FICHE REFLEXE - SORESX1¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | soresx1.d-sormg.local |
| Type | Hyperviseur VMware ESXi |
| IP VMkernel | 10.1.230.10 |
| IP Management | 10.1.250.11 |
| IP iLO | 10.1.250.10 |
| Emplacement | Salle serveur Bureaux - Baie A completer |
| Modele | HPE ProLiant DL380 Gen9 |
| CPU | Intel Xeon E5-2650 v3 @ 2.30GHz - 20 Logical Processors |
| NIC | 6 interfaces |
| ESXi version | 6.5.0 build 15177306 |
| Cluster | CLU-Soreal (avec soresx2) |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| root ESXi | Coffre-fort > ESXi > soresx1 > root |
| iLO Administrator | Coffre-fort > iLO > soresx1 > Administrator |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
VMs hebergees¶
Fait partie du cluster CLU-Soreal avec soresx2. Les VMs peuvent migrer entre les deux hotes. VMs presentes sur le cluster : - SORDC1, SorFS1, SORERLA, SorM365, ESMC_Appliance, Zabbix, VCSA7 - (+ VMs decomm et replicas)
MITIGATION
Si soresx1 tombe : VMware HA peut redemarrer les VMs automatiquement sur soresx2 (si HA configure). Sinon, redemarrer manuellement les VMs sur soresx2 via vCenter.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| SAN01 (HPE MSA 2040) | Pas de stockage = toutes les VMs inaccessibles |
| Reseau (switches, Fortigate) | Hote isole |
| Alimentation electrique + onduleur Riello | Coupure = arret brutal |
| Est requis par | Impact si soresx1 tombe |
|---|---|
| Toutes les VMs du cluster | Doivent migrer ou redemarrer sur soresx2 |
| Capacite du cluster | Perte de 50% de la puissance de calcul |
MITIGATION
soresx2 peut heberger toutes les VMs en mode degrade (performances reduites). Le cluster CLU-Soreal assure la redondance.
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
Scenario 1 : ESXi ne repond plus mais serveur physique OK¶
- Acceder via iLO : https://10.1.250.10
- iLO > Power Management > Reset Server
- Attendre redemarrage ESXi (~5-10 min)
- Verifier dans vCenter que l'hote est reconnecte
Scenario 2 : Serveur physique eteint / plante¶
- Acceder via iLO : https://10.1.250.10
- iLO > Power Management > Power On
- Surveiller le POST dans la console iLO (Remote Console)
- Attendre demarrage ESXi (~5-10 min)
- Verifier dans vCenter que l'hote est reconnecte et les VMs redemarrees
Scenario 3 : Panne materielle (iLO accessible mais ESXi ne boot pas)¶
- Verifier les LEDs et logs iLO > System Information > Health Summary
- Identifier le composant defaillant (disque, RAM, alimentation)
- Si soresx1 est indisponible durablement : s'assurer que toutes les VMs tournent sur soresx2
- Contacter HPE pour remplacement materiel
Verification post-redemarrage
- vCenter > soresx1 > Summary : etat "Connected"
- Verifier que les VMs sont redemarrees (ou les demarrer manuellement)
dcdiag /qsur SORDC1 pour verifier l'AD
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| HPE (materiel DL380 Gen9) | A completer | A completer | A completer |
| VMware (Broadcom) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SORESX2 - Second noeud du cluster CLU-Soreal
- fiche-reflexe-SAN01 - Stockage SAN partage
- fiche-reflexe-VCSA7 - Console de gestion vCenter
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
- topologie-reseau-vonnas - Topologie physique et logique
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
FICHE REFLEXE - SORESX2¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | soresx2.d-sormg.local |
| Type | Hyperviseur VMware ESXi |
| IP VMkernel | 10.1.230.20 |
| IP Management | 10.1.250.21 |
| IP iLO | 10.1.250.20 |
| Emplacement | Salle serveur Bureaux - Baie A completer |
| Modele | HPE ProLiant DL380 Gen9 |
| CPU | Intel Xeon E5-2650 v3 @ 2.30GHz - 20 Logical Processors |
| NIC | 6 interfaces |
| ESXi version | 6.5.0 build 15177306 |
| Cluster | CLU-Soreal (avec soresx1) |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| root ESXi | Coffre-fort > ESXi > soresx2 > root |
| iLO Administrator | Coffre-fort > iLO > soresx2 > Administrator |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
VMs hebergees¶
Fait partie du cluster CLU-Soreal avec soresx1. Les VMs peuvent migrer entre les deux hotes.
MITIGATION
Si soresx2 tombe : meme logique que soresx1 - les VMs migrent sur soresx1 (HA ou manuel).
Dependances¶
| Depend de | Impact si absent |
|---|---|
| SAN01 (HPE MSA 2040) | Pas de stockage = toutes les VMs inaccessibles |
| Reseau (switches, Fortigate) | Hote isole |
| Alimentation electrique + onduleur Riello | Coupure = arret brutal |
| Est requis par | Impact si soresx2 tombe |
|---|---|
| VMs du cluster CLU-Soreal | Doivent migrer ou redemarrer sur soresx1 |
| Capacite du cluster | Perte de 50% de la puissance de calcul |
MITIGATION
Identique a soresx1. Le cluster assure la redondance.
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
Identique a soresx1, avec les IPs de soresx2 :
- iLO : https://10.1.250.20
- iLO > Power Management > Reset Server ou Power On
- Attendre redemarrage ESXi (~5-10 min)
- Verifier dans vCenter que l'hote est reconnecte
Scenarios detailles
Voir la fiche-reflexe-SORESX1 pour les scenarios detailles (panne soft, panne hard, panne materielle).
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| HPE (materiel DL380 Gen9) | A completer | A completer | A completer |
| VMware (Broadcom) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SORESX1 - Premier noeud du cluster CLU-Soreal
- fiche-reflexe-SAN01 - Stockage SAN partage
- fiche-reflexe-VCSA7 - Console de gestion vCenter
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
FICHE REFLEXE - SORESXBACK¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Usine)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | soresxback.d-sormg.local |
| Type | Hyperviseur VMware ESXi (PRA + Production usine) |
| IP VMkernel | 10.1.230.50 |
| IP iLO | 10.1.250.50 |
| Emplacement | Salle serveur Usine - Baie A completer |
| Modele | HPE ProLiant DL360 Gen10 |
| CPU | Intel Xeon Silver 4214 @ 2.20GHz - 48 Logical Processors |
| NIC | 4 interfaces |
| ESXi version | 6.7.0 build 15160138 |
| Ressource Pool | PRA-Soreal |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| root ESXi | Coffre-fort > ESXi > soresxback > root |
| iLO Administrator | Coffre-fort > iLO > soresxback > Administrator |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
Ce serveur a un DOUBLE role : 1. Production usine : heberge _SRLV-SERV-APP, _SRLV-SERV-BDD, SORDC2 (VMs originales) 2. PRA bureaux : heberge les replicas Veeam des VMs du cluster CLU-Soreal
Si soresxback tombe = production usine arretee + plus de PRA pour les bureaux.
VMs hebergees (originales - production)¶
| VM | Role | Criticite |
|---|---|---|
| _SRLV-SERV-APP | ERP Nutriciel (Actemium) | C1 |
| _SRLV-SERV-BDD | BDD Oracle + PostgreSQL | C1 |
| SORDC2 | Controleur de domaine secondaire | C1 |
VMs hebergees (replicas Veeam - PRA)¶
Replicas des VMs bureaux (CLU-Soreal) : SORDC1_replication, SorFS1_replication, SORERLA_replication, SorM365_replication, ESMC_replication, Zabbix_replication, etc.
Replicas PRA
Les replicas ne sont PAS actives en temps normal. Elles sont activees par Veeam en cas de basculement PRA.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| Stockage local | Pas de SAN partage - stockage interne au serveur |
| Reseau usine (switches HP 1910-16G) | Hote isole, VMs usine inaccessibles |
| Alimentation electrique usine | Coupure = arret brutal - PAS d'onduleur documente pour l'usine (A verifier) |
| Est requis par | Impact si soresxback tombe |
|---|---|
| _SRLV-SERV-APP + BDD | Production usine arretee (ERP Nutriciel KO) |
| SORDC2 | Plus de DC secondaire, SORDC1 seul |
| PRA bureaux | Plus de site de reprise pour les VMs bureaux |
| Replication Veeam | Jobs de replication echouent |
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
Scenario 1 : ESXi ne repond plus¶
- Acceder via iLO : https://10.1.250.50
- iLO > Power Management > Reset Server
- Attendre redemarrage ESXi (~5-10 min)
- Verifier dans vCenter que l'hote est reconnecte
- Verifier que les VMs production usine redemarrent :
- _SRLV-SERV-BDD en PREMIER
- _SRLV-SERV-APP en SECOND
- SORDC2
Scenario 2 : Serveur physique eteint¶
- Se rendre physiquement sur l'usine (si iLO inaccessible)
- Ou via iLO : https://10.1.250.50 > Power On
- Suivre le meme ordre de verification que scenario 1
Scenario 3 : Panne materielle durable¶
- Les VMs usine ont des replicas sur CLU-Soreal (bureaux) :
- _SRLV-SERV-APP_replica et _SRLV-SERV-BDD_replica
- Basculer via Veeam : activer les replicas sur le cluster bureaux
- Attention : les replicas peuvent avoir un decalage de donnees
- Contacter HPE pour remplacement materiel
Pas de redondance locale
PAS de redondance locale pour l'usine - soresxback est un serveur unique. La seule reprise est sur le cluster bureaux via Veeam.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| HPE (materiel DL360 Gen10) | A completer | A completer | A completer |
| VMware (Broadcom) | A completer | A completer | A completer |
| Actemium (si impact Nutriciel) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SRLV-SERV-APP - ERP Nutriciel (heberge sur cet hote)
- fiche-reflexe-SRLV-SERV-BDD - BDD Oracle/PostgreSQL (heberge sur cet hote)
- fiche-reflexe-SORDC2 - DC secondaire (heberge sur cet hote)
- fiche-reflexe-SORSAUVEGARDE - Veeam replique vers cet hote
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
FICHE REFLEXE - SAN01¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | SAN01 |
| Type | Baie de stockage SAN |
| IP interface 1 | 10.1.250.1 |
| IP interface 2 | 10.1.250.2 |
| Emplacement | Salle serveur Bureaux - Baie A completer |
| Modele | HPE MSA 2040 SAS |
| Firmware | GL225R003 |
| Controleurs | Dual : Controller-A (Top) + Controller-B (Bottom) - Operational |
| Disques | SAS 600GB - RAID5 (Vdisk01) + RAID10 (Vdisk02) |
| Interface web | https://10.1.250.1 ou https://10.1.250.2 |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| manage (admin SAN) | Coffre-fort > SAN01 > manage |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
Le SAN01 est le SPOF ultime du cluster bureaux. Si le SAN tombe, soresx1 ET soresx2 perdent l'acces a TOUTES les VMs simultanement. Il n'y a pas de second SAN. C'est le seul equipement dont la panne impacte l'integralite des services bureaux d'un coup.
Mitigation : Dual controllers (A+B) avec failover automatique. La perte d'un controleur n'est PAS une panne - le second prend le relais. La vraie panne c'est la perte des deux controleurs ou la perte de disques au-dela de la tolerance RAID.
Architecture stockage¶
| Virtual Disk | RAID | Disques | Usage |
|---|---|---|---|
| Vdisk01-R5 (slots 1.1, 1.2, 1.3, 1.4) | RAID 5 | SAS 600GB | Datastores VMs |
| Vdisk02-R10 (slots 1.21, 1.22, 1.23, 1.24) | RAID 10 | SAS 600GB | Datastores VMs |
| Dedicated SP (slots 1.15, 1.16) | Dedicated Spare | SAS 600GB | Disques de secours |
Spare disques
2 disques dedies en spare (slots 1.15, 1.16). En cas de panne d'un disque, le rebuild demarre automatiquement.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| Alimentation electrique (double alim ?) | Coupure = perte stockage |
| Onduleur Riello (10.1.250.100) | Protection coupure courte |
| Connectique SAS vers soresx1 + soresx2 | Perte d'acces aux datastores |
| Est requis par | Impact si SAN01 tombe |
|---|---|
| soresx1 + soresx2 | TOUTES les VMs du cluster CLU-Soreal inaccessibles |
| SORDC1 | AD/DNS/DHCP KO |
| SorFS1 | Fichiers inaccessibles |
| VCSA7 | vCenter KO (mais VMs usine non impactees) |
| Tous les services bureaux | Arret total simultane |
NON IMPACTE
soresxback (usine) a son propre stockage local. La production usine continue meme si le SAN bureaux tombe.
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure en cas d'alerte¶
Panne d'un controleur (A ou B)¶
- Pas de panique - le second controleur prend le relais automatiquement
- Se connecter a l'interface web du controleur restant : https://10.1.250.1 ou https://10.1.250.2
- Verifier l'etat : System > Health Summary
- Contacter HPE pour remplacement du controleur defaillant
- Les VMs continuent de tourner normalement
Panne d'un disque¶
- Pas de panique - le spare rebuild automatiquement
- Verifier dans l'interface web : Disks > chercher le disque en "Degraded" ou "Failed"
- Le rebuild sur le spare demarre automatiquement (peut prendre plusieurs heures)
- Surveiller : pendant le rebuild, le RAID est degrade - une seconde panne disque serait critique
- Commander un disque de remplacement HPE (SAS 600GB) en urgence
Panne totale SAN (les 2 controleurs ou perte RAID critique)¶
- Toutes les VMs bureaux sont DOWN - c'est la panne majeure
- Les VMs usine (soresxback) ne sont PAS impactees
- Plan B : activer les replicas Veeam sur soresxback (usine)
- Les replicas des VMs bureaux existent sur soresxback
- Basculer via Veeam > Failover
- Attention : soresxback devra porter la prod usine ET les VMs bureaux = performances degradees
- Contacter HPE en urgence pour intervention sur site
Verification post-incident
- Interface web SAN : https://10.1.250.1
- System > Health : tout en "OK"
- Disks : tous les disques en "Up"
- Vdisks : RAID "Optimal" (pas "Degraded")
- vCenter : les datastores sont accessibles, les VMs tournent
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| HPE (MSA 2040 SAS) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SORESX1 - Hyperviseur connecte au SAN
- fiche-reflexe-SORESX2 - Hyperviseur connecte au SAN
- fiche-reflexe-VCSA7 - Console vCenter (VM sur SAN)
- fiche-reflexe-SORSAUVEGARDE - Veeam sauvegarde les VMs du SAN
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
2.2 Identite (C1)¶
FICHE REFLEXE - SORDC1¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | SORDC1 |
| FQDN | sordc1.d-sormg.local |
| Type | Controleur de domaine |
| IP principale | 10.1.230.120 |
| Emplacement | VM - CLU-Soreal (soresx1 / soresx2) |
| OS | Windows Server 2016 |
| Roles | AD DS, DNS, DHCP, FSMO (a confirmer) |
| Domaine AD | d-sormg.local |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin local | Coffre-fort > SORDC1 > Admin local |
| Admin domaine | Coffre-fort > d-sormg.local > Admin domaine |
| Compte DSRM | Coffre-fort > SORDC1 > DSRM |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
Dependances¶
| Depend de | Impact si absent |
|---|---|
| ESXi soresx1/soresx2 | VM ne demarre pas |
| SAN01 (HPE MSA 2040) | Pas de stockage = VM inaccessible |
| Reseau (switches, Fortigate) | Aucune communication |
| Est requis par | Impact si SORDC1 tombe |
|---|---|
| Tous les postes utilisateurs | Plus d'authentification AD, plus de login |
| Toutes les VMs du domaine | Resolution DNS cassee, services dependants KO |
| DHCP clients | Plus de baux IP (impact apres expiration baux existants) |
| SorCompta (Sage 100c) | Pas d'acces sans AD |
| SorFS1 (fichiers) | Pas d'acces sans AD |
| SORERLA (carburant) | Pas d'acces sans AD |
| SorM365 (synchro) | Synchronisation M365 interrompue |
| SORDC2 | Replication AD interrompue (SORDC2 prend le relais temporairement) |
MITIGATION
SORDC2 (10.1.230.121) est DC secondaire et peut assurer DNS/DHCP/Auth en cas de perte de SORDC1. Verifier que SORDC2 a les roles FSMO si SORDC1 est perdu durablement.
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- Verifier l'etat de la VM dans vCenter (vcsa.d-sormg.local / 10.1.230.40)
- Si VM arretee → Clic droit > Power On
- Si VM bloquee → Clic droit > Reset (dernier recours)
- Attendre le demarrage complet (~3-5 min) - ne PAS interrompre
- Verifier les services AD :
dcdiag /q(doit retourner sans erreur)netdom query fsmo(verifier les roles FSMO)- Verifier DNS :
nslookup d-sormg.local 10.1.230.120(doit repondre)- Verifier DHCP :
- Console DHCP > verifier que le scope est actif et distribue des baux
- Verification finale : un poste utilisateur peut se loguer au domaine
Si SORDC1 ne redemarre pas
SORDC2 (10.1.230.121) assure le relais. Transferer les roles FSMO vers SORDC2 avec ntdsutil si perte durable.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| Microsoft | A completer | A completer | A completer |
| HPE (infra VMware) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SORDC2 - DC secondaire, filet de securite AD
- fiche-reflexe-SAN01 - Stockage SAN hebergeant la VM
- fiche-reflexe-SORESX1 - Hyperviseur hebergeant la VM
- fiche-reflexe-VCSA7 - Console de gestion vCenter
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
FICHE REFLEXE - SORDC2¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Usine)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | SORDC2 |
| FQDN | sordc2.d-sormg.local |
| Type | Controleur de domaine secondaire |
| IP principale | 10.1.230.121 |
| Emplacement | VM - PRA-Soreal (soresxback - Usine) |
| OS | Windows Server 2016 |
| Roles | AD DS, DNS, DHCP (a confirmer) |
| Domaine AD | d-sormg.local |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin local | Coffre-fort > SORDC2 > Admin local |
| Admin domaine | Coffre-fort > d-sormg.local > Admin domaine |
| Compte DSRM | Coffre-fort > SORDC2 > DSRM |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
Dependances¶
| Depend de | Impact si absent |
|---|---|
| ESXi soresxback | VM ne demarre pas |
| Stockage local soresxback | Pas de disque = VM inaccessible |
| Reseau (switches, Fortigate) | Aucune communication |
| SORDC1 (replication AD) | Pas de replication - SORDC2 fonctionne en autonome avec sa copie locale |
| Est requis par | Impact si SORDC2 tombe |
|---|---|
| VMs Usine (_SRLV-SERV-APP, _SRLV-SERV-BDD) | Pas de DNS/Auth locale si SORDC1 aussi inaccessible |
| Postes usine | Perte auth AD locale (SORDC1 prend le relais via reseau) |
| Resilience AD globale | Plus de redondance DC - SORDC1 devient SPOF |
ROLE CLE
SORDC2 est le filet de securite. Si SORDC1 tombe, SORDC2 assure l'authentification, le DNS et le DHCP pour tout le site. Il est aussi le DC local de l'usine - plus proche des serveurs _SRLV.
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- Verifier l'etat de la VM dans vCenter (vcsa.d-sormg.local / 10.1.230.40)
- PRA-Soreal > soresxback > SORDC2
- Si VM arretee → Clic droit > Power On
- Si VM bloquee → Clic droit > Reset (dernier recours)
- Attendre le demarrage complet (~3-5 min) - ne PAS interrompre
- Verifier les services AD :
dcdiag /q(doit retourner sans erreur)repadmin /replsummary(verifier la replication avec SORDC1)- Verifier DNS :
nslookup d-sormg.local 10.1.230.121(doit repondre)- Verifier DHCP (si role actif) :
- Console DHCP > verifier que le scope est actif
- Verification finale : la replication AD avec SORDC1 fonctionne sans erreur
Si SORDC1 est aussi en panne
SORDC2 est le dernier DC. NE PAS le redemarrer avant d'avoir compris la cause. Si ransomware suspecte, isoler le reseau avant tout.
Scenario critique : perte de SORDC1¶
Si SORDC1 est perdu durablement et que SORDC2 est le seul DC :
1. Transferer les roles FSMO : ntdsutil > roles > connections > connect to SORDC2 > seize (forcer)
2. Verifier que DNS et DHCP fonctionnent sur SORDC2
3. Ne PAS reconstruire SORDC1 avant d'avoir stabilise SORDC2
4. Quand stable : promouvoir un nouveau DC et transferer les roles proprement
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| Microsoft | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SORDC1 - DC principal, partenaire de replication
- fiche-reflexe-SORESXBACK - Hyperviseur hebergeant la VM
- fiche-reflexe-SRLV-SERV-APP - Serveur applicatif usine (meme hote)
- fiche-reflexe-SRLV-SERV-BDD - Serveur BDD usine (meme hote)
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
2.3 Gestion VMware (C1)¶
FICHE REFLEXE - VCSA7¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | VCSA7 |
| FQDN | vcsa.d-sormg.local |
| Type | vCenter Server Appliance |
| IP principale | 10.1.230.40 |
| Emplacement | VM - CLU-Soreal (soresx1 / soresx2) |
| OS | Photon OS (appliance Linux VMware) |
| Version | vCenter 7.x (plan IP indique 6.7 - a confirmer) |
| Interface admin (VAMI) | https://10.1.230.40:5480 |
| Client web vSphere | https://10.1.230.40/ui |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| root (VAMI) | Coffre-fort > VCSA7 > root |
| administrator@vsphere.local | Coffre-fort > VCSA7 > SSO Admin |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
vCenter en panne ≠ VMs en panne. Les VMs continuent de tourner sur les ESXi. Tu perds uniquement la gestion centralisee (DRS, HA, snapshots, Veeam). En cas de panne vCenter, ne pas paniquer - les services tournent toujours.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| ESXi soresx1/soresx2 | VM ne demarre pas |
| SAN01 (HPE MSA 2040) | Pas de stockage = VM inaccessible |
| DNS (SORDC1/SORDC2) | Resolution FQDN cassee (utiliser IP directe en secours) |
| Reseau (switches, Fortigate) | Aucune communication |
| Est requis par | Impact si VCSA7 tombe |
|---|---|
| Gestion de toutes les VMs | Plus de vSphere Client = gestion via ESXi direct uniquement |
| Veeam Backup | Jobs de backup et replication interrompus |
| DRS / HA cluster | Plus de load balancing ni failover automatique |
| Snapshots / clones | Impossibles depuis la console centrale |
| Deploiement VMs | Impossible |
Bonne nouvelle
Les VMs existantes continuent de fonctionner normalement.
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Acces de secours (si vCenter est en panne)¶
Connexion directe aux hotes ESXi : - soresx1 : https://10.1.250.11/ui (ou https://10.1.230.10/ui) - soresx2 : https://10.1.250.21/ui (ou https://10.1.230.20/ui) - soresxback : https://10.1.230.50/ui (iLO : 10.1.250.50) - Compte : root ESXi > Coffre-fort > ESXi > root
Procedure de redemarrage rapide¶
- Verifier l'etat de la VM en se connectant directement a l'hote ESXi qui l'heberge
- https://10.1.250.11/ui ou https://10.1.250.21/ui
- Se loguer en root ESXi
- Trouver VCSA7 > Power On si arretee
- Attendre le demarrage complet (~10-15 min - vCenter est long a demarrer)
- Verifier via VAMI : https://10.1.230.40:5480
- Se loguer en root
- Verifier que tous les services sont "Running" (onglet Services)
- Verifier le client web : https://10.1.230.40/ui
- Se loguer en administrator@vsphere.local
- Verifier que les 3 hotes ESXi sont visibles et connectes
- Verification finale : Veeam peut se reconnecter et les jobs reprennent
Si VCSA7 ne redemarre pas
Les VMs tournent toujours. Gerer en direct sur les ESXi. Reinstaller VCSA depuis l'ISO VMware si necessaire (procedure longue ~2h). Les VMs ne sont PAS impactees.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| VMware (Broadcom) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SORESX1 - Hyperviseur gere par vCenter
- fiche-reflexe-SORESX2 - Hyperviseur gere par vCenter
- fiche-reflexe-SORESXBACK - Hyperviseur gere par vCenter
- fiche-reflexe-SAN01 - Stockage SAN hebergeant la VM
- fiche-reflexe-SORSAUVEGARDE - Veeam depend de vCenter
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
2.4 Applications usine (C1)¶
FICHE REFLEXE - _SRLV-SERV-BDD¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Usine)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | _SRLV-SERV-BDD |
| FQDN | srlv-serv-bdd (10.1.1.3) |
| Type | Serveur base de donnees ERP usine |
| IP principale | 10.1.1.3 |
| Emplacement | VM - PRA-Soreal (soresxback - Usine) |
| OS | Windows Server 2016 |
| Bases de donnees | Oracle + PostgreSQL (dediees Nutriciel) |
| Annee migration VM | 2022 |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin local | Coffre-fort > SRLV-SERV-BDD > Admin local |
| Oracle SYS/SYSTEM | Coffre-fort > Nutriciel > Oracle DBA |
| PostgreSQL admin | Coffre-fort > Nutriciel > PostgreSQL admin |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
Ce serveur contient toutes les donnees de production usine. Sans lui, _SRLV-SERV-APP est inutile. C'est le serveur a restaurer en PREMIER en cas de panne du couple usine. La perte de cette BDD sans sauvegarde = perte des donnees de production.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| ESXi soresxback | VM ne demarre pas |
| Stockage local soresxback | Pas de disque = BDD inaccessible |
| DNS (SORDC1/SORDC2) | Resolution noms (impact mineur si IP directe utilisee) |
| Est requis par | Impact si je tombe |
|---|---|
| _SRLV-SERV-APP (10.1.1.4) | Application Nutriciel completement KO |
| (indirect) Toute la production usine | Via l'APP : chargement, ensachage, magasin a l'arret |
ORDRE DE DEMARRAGE
BDD d'abord, APP ensuite. Toujours.
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- Demarrer la VM dans vCenter > PRA-Soreal > soresxback > _SRLV-SERV-BDD
- Si vCenter down : acces direct ESXi https://10.1.230.50/ui ou iLO 10.1.250.50
- Attendre demarrage complet (~5 min)
- Verifier les services BDD :
- Se connecter en RDP sur 10.1.1.3
- Verifier le service Oracle :
services.msc> OracleService... doit etre "Running"- A completer : nom exact de l'instance Oracle
- Verifier le service PostgreSQL :
services.msc> postgresql... doit etre "Running"
- Verifier la connectivite BDD :
- Oracle :
tnsping <instance>ousqlplus / as sysdba>SELECT 1 FROM DUAL; - PostgreSQL :
psql -U postgres -c "SELECT 1;" - Puis demarrer _SRLV-SERV-APP (voir fiche APP)
- Verification finale : l'application Nutriciel sur un poste usine fonctionne
Si ca ne redemarre pas
Replica disponible sur CLU-Soreal (bureaux) - _SRLV-SERV-BDD_replica. Attention : les replicas peuvent avoir un decalage de donnees. Contacter Actemium pour valider l'integrite.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| Actemium (ERP Nutriciel) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SRLV-SERV-APP - Serveur applicatif (couple indissociable)
- fiche-reflexe-SORESXBACK - Hyperviseur hebergeant la VM
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
FICHE REFLEXE - _SRLV-SERV-APP¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Usine)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | _SRLV-SERV-APP |
| FQDN | srlv-serv-app (10.1.1.4) |
| Type | Serveur applicatif ERP usine |
| IP principale | 10.1.1.4 |
| Emplacement | VM - PRA-Soreal (soresxback - Usine) |
| OS | Windows Server 2016 |
| Application | Nutriciel (editeur : Actemium) |
| Annee migration VM | 2022 |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin local | Coffre-fort > SRLV-SERV-APP > Admin local |
| Compte service Nutriciel | Coffre-fort > Nutriciel > Service |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
Si ce serveur tombe, la production usine est impactee. Les postes de chargement (srlv_vrac), ensachage (f1005-ens) et magasin (srlv-mag) ne peuvent plus travailler. Les terminaux Intermec CK3X en magasin sont inutilisables.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| ESXi soresxback | VM ne demarre pas |
| _SRLV-SERV-BDD (10.1.1.3) | L'application ne fonctionne pas sans la BDD |
| DNS (SORDC1/SORDC2) | Resolution noms cassee |
| Reseau usine (switches HP 1910-16G) | Pas de communication avec les postes |
| Est requis par | Impact si je tombe |
|---|---|
| Postes usine (srlv_vrac, f1005-ens, srlv-mag) | Production arretee - pas de gestion chargement/ensachage/magasin |
| Terminaux Intermec CK3X (x4) | Inventaire magasin impossible |
| Imprimantes usine (etiquettes Zebra, etc.) | Pas d'impression etiquettes production |
| Bornes carburant ERLA (via SORERLA) | A verifier si dependance directe |
COUPLE INDISSOCIABLE
_SRLV-SERV-APP et _SRLV-SERV-BDD fonctionnent ensemble. Si l'un tombe, l'autre est inutile. Toujours redemarrer la BDD en premier, puis l'APP.
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- TOUJOURS redemarrer _SRLV-SERV-BDD en premier (voir fiche BDD)
- Verifier que la BDD repond avant de demarrer l'APP
- Demarrer la VM dans vCenter > PRA-Soreal > soresxback > _SRLV-SERV-APP
- Si vCenter down : acces direct ESXi https://10.1.230.50/ui ou iLO 10.1.250.50
- Attendre demarrage complet (~5 min)
- Verifier le service Nutriciel :
- Se connecter en RDP sur 10.1.1.4
- Verifier que le service applicatif Nutriciel est demarre (services.msc)
- A completer : nom exact du service
- Verification finale : un poste usine (ex: srlv_vrac 10.1.1.10) peut se connecter a Nutriciel
Si ca ne redemarre pas
Replica disponible sur CLU-Soreal (bureaux) - _SRLV-SERV-APP_replica. Contacter Actemium pour support applicatif.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| Actemium (ERP Nutriciel) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SRLV-SERV-BDD - BDD Oracle/PostgreSQL (couple indissociable)
- fiche-reflexe-SORESXBACK - Hyperviseur hebergeant la VM
- fiche-reflexe-SORDC2 - DC local usine
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
2.5 Sauvegarde (C1/C2)¶
FICHE REFLEXE - SORSAUVEGARDE (Veeam)¶
Criticite : C1 CRITIQUE | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | SorSauvegarde |
| Type | Serveur de sauvegarde Veeam |
| IP principale | 10.1.230.220 |
| IP iLO | 10.1.250.220 |
| Emplacement | Salle serveur Bureaux - Baie A completer |
| Modele | HPE (modele exact A completer) |
| OS | Windows Server (version A completer) |
| Logiciel | Veeam Backup & Replication |
| Version Veeam | A completer |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin local | Coffre-fort > SorSauvegarde > Admin local |
| iLO Administrator | Coffre-fort > iLO > SorSauvegarde > Administrator |
| Veeam console | Coffre-fort > Veeam > Console admin |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
Veeam est ta derniere ligne de defense. Ce serveur gere : - Backup de toutes les VMs du cluster CLU-Soreal - Replication Veeam entre bureaux <-> usine (soresxback) - Veeam Backup for M365 (via SorBackupM365 10.1.230.170 ?)
Si Veeam tombe, les VMs continuent de tourner mais tu perds la capacite de : - Restaurer en cas de sinistre - Basculer sur les replicas PRA - Sauvegarder les nouvelles donnees
Chaque jour sans backup est un jour de donnees en risque.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| Reseau (switches, Fortigate) | Plus de communication avec les ESXi et le SAN |
| vCenter (VCSA7) | Veeam se connecte a vCenter pour les jobs - sans vCenter, pas de backup VMware |
| SAN01 | Acces aux datastores pour les snapshots |
| NAS Ugreen DXP4800 (10.1.230.80) | Stockage cible des backups ? (A confirmer) |
| Alimentation electrique + onduleur | Coupure = arret brutal |
| Est requis par | Impact si Veeam tombe |
|---|---|
| Toutes les VMs | Plus de sauvegarde - risque de perte de donnees |
| PRA usine <-> bureaux | Plus de replication = replicas figees a la derniere execution |
| Restauration | Impossible de restaurer une VM ou des fichiers |
| Basculement PRA | Failover Veeam impossible (les replicas existent mais pas de pilotage) |
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- Verifier via iLO : https://10.1.250.220
- Si serveur eteint → iLO > Power Management > Power On
- Si serveur plante → iLO > Power Management > Reset Server
- Attendre demarrage complet (~5-10 min)
- Se connecter en RDP sur 10.1.230.220
- Verifier les services Veeam :
services.msc> "Veeam Backup Service" = Running- "Veeam Backup Enterprise Manager" = Running (si installe)
- Ouvrir la console Veeam Backup & Replication
- Verifier les jobs :
- Backup jobs : derniere execution, statut (Success/Warning/Failed)
- Replication jobs : derniere execution vers soresxback
- Si jobs en echec > relancer manuellement
- Verification finale : un job de backup complete avec succes
Si Veeam ne redemarre pas
Les VMs tournent toujours. La priorite est de restaurer Veeam dans les 24h pour ne pas perdre la fenetre de backup. En attendant, les replicas existantes sur soresxback restent utilisables manuellement (Power On dans vCenter).
Cibles de sauvegarde¶
| Cible | Type | Chemin/IP |
|---|---|---|
| Stockage local | Disques internes ? | A completer |
| NAS Ugreen DXP4800 | NAS externe | 10.1.230.80 (A confirmer) |
| Autre | ? | A completer |
Autres serveurs backup associes¶
| Serveur | IP | Role |
|---|---|---|
| srv-backup.d-sormg.local | 10.1.230.221 | A completer (UrBackup ?) |
| sorbackup.d-sormg.local | 10.1.230.222 | A completer |
| SorBackupM365 | 10.1.230.170 | Veeam Backup for Office 365 |
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| Veeam | A completer | A completer | A completer |
| HPE (materiel) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-VCSA7 - vCenter requis pour les jobs Veeam
- fiche-reflexe-SAN01 - Stockage des datastores snapshotes
- fiche-reflexe-SORESXBACK - Cible de replication PRA
- fiche-reflexe-SRVBACKUP - Serveur UrBackup complementaire
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
FICHE REFLEXE - SRV-BACKUP (UrBackup)¶
Criticite : C2 IMPORTANT | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | srv-backup |
| Type | Serveur de sauvegarde UrBackup |
| IP principale | 10.1.230.221 |
| FQDN | srv-backup.d-sormg.local |
| Emplacement | A completer (VM ou physique ?) |
| OS | Windows Server 2016 |
| Logiciel | UrBackup |
| Interface web | http://10.1.230.221:55414 (port par defaut UrBackup) |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin local | Coffre-fort > srv-backup > Admin local |
| Admin UrBackup | Coffre-fort > UrBackup > Admin console |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
UrBackup est la sauvegarde complementaire a Veeam. Veeam couvre les VMs, UrBackup couvre probablement les postes de travail et/ou les fichiers.
Si srv-backup tombe : - Veeam continue de fonctionner (les backups VMs ne sont pas impactees) - Les machines couvertes par UrBackup ne sont plus sauvegardees - Les restaurations UrBackup sont impossibles
Priorite moindre que Veeam mais a restaurer sous 48h pour ne pas perdre la couverture des postes.
Perimetres de sauvegarde¶
| Cible | Type | Details |
|---|---|---|
| Postes de travail ? | Image / Fichiers | A completer |
| Serveurs specifiques ? | Fichiers | A completer |
A documenter
Ouvrir la console UrBackup pour documenter la liste exacte des clients sauvegardes et la politique de retention.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| Reseau (switches, Fortigate) | Plus de communication avec les clients |
| Stockage (local ou NAS) | Plus d'espace pour les backups |
| SORDC1/SORDC2 | Resolution DNS des clients |
| Est requis par | Impact si srv-backup tombe |
|---|---|
| Postes/serveurs sauvegardes par UrBackup | Plus de sauvegarde complementaire |
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- Verifier dans vCenter (si VM) ou via RDP (si physique) :
- Si VM : vCenter > srv-backup > Power On
- Si physique : verifier l'alimentation / iLO
- Attendre demarrage complet (~3-5 min)
- Se connecter en RDP sur 10.1.230.221
- Verifier le service UrBackup :
services.msc> "UrBackup Server" (ou "UrBackupWinServer") = Running- Ouvrir la console web : http://10.1.230.221:55414
- Verifier :
- Nombre de clients connectes
- Derniere sauvegarde de chaque client (Success/Failed)
- Espace disque disponible
- Verification finale : un backup client complete avec succes
Impact limite
Si srv-backup ne demarre pas : Veeam assure la couverture des VMs. L'urgence est moindre. Restaurer sous 48h.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| UrBackup (open source) | - | https://www.urbackup.org | - |
Voir aussi¶
- fiche-reflexe-SORSAUVEGARDE - Serveur Veeam principal
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- carte-dependances-vonnas - Carte des dependances systemes
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
2.6 Services bureaux (C2)¶
FICHE REFLEXE - ESMC_Appliance¶
Criticite : C2 IMPORTANT | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | ESMC_Appliance |
| Type | VM - Console antivirus ESET |
| IP principale | 10.1.230.60 |
| FQDN | soresmc.groupe-soreal.fr |
| Hebergement | CLU-Soreal (soresx1 ou soresx2) |
| OS | Appliance ESET (Linux-based) |
| Logiciel | ESET Security Management Center |
| Interface web | https://10.1.230.60 ou https://soresmc.groupe-soreal.fr |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin console ESET | Coffre-fort > ESET > ESMC > Admin |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
ESMC est la console de gestion centralisee de l'antivirus pour tous les postes et serveurs.
Si ESMC tombe : - Les agents ESET sur les postes continuent de fonctionner (protection locale active) - Mais : plus de mise a jour centralisee des signatures, plus de visibilite sur les alertes, plus de deploiement de politiques - Risque : en cas d'attaque, tu ne vois plus rien depuis la console
Les postes restent proteges a court terme. La priorite est de restaurer la visibilite sous 24-48h.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| CLU-Soreal (soresx1/soresx2) | VM inaccessible |
| SAN01 | Stockage VM perdu |
| Acces Internet | Plus de telechargement des signatures ESET |
| DNS (SORDC1/SORDC2) | Resolution soresmc.groupe-soreal.fr KO |
| Est requis par | Impact si ESMC tombe |
|---|---|
| Tous les postes et serveurs | Plus de gestion centralisee antivirus |
| Supervision securite | Plus de visibilite sur les menaces |
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- Verifier dans vCenter : https://10.1.230.40
- VM ESMC_Appliance > etat
- Si Powered Off > clic droit > Power On
- Attendre demarrage complet (~3-5 min pour l'appliance Linux)
- Verifier l'interface web : https://10.1.230.60
- La page de login ESET doit s'afficher
- Se connecter a la console ESET
- Verifier :
- Dashboard : nombre de postes connectes
- Alertes en attente
- Derniere mise a jour des signatures
- Verification finale : les agents des postes remontent bien leurs statuts
Si la VM ne demarre pas
Les agents ESET continuent de proteger les postes localement. Restaurer depuis Veeam sous 48h max pour ne pas perdre la visibilite securite. En attendant, les signatures locales protegent contre les menaces connues.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| ESET | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SORDC1 - DNS requis pour resolution FQDN
- fiche-reflexe-SAN01 - Stockage SAN hebergeant la VM
- fiche-reflexe-SORESX1 - Hyperviseur du cluster
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
FICHE REFLEXE - SORM365¶
Criticite : C2 IMPORTANT | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | SorM365 |
| Type | VM - Relais SMTP |
| IP principale | 10.1.230.160 |
| FQDN | sorm365.d-sormg.local |
| Hebergement | CLU-Soreal (soresx1 ou soresx2) |
| OS | Windows Server (version A completer) |
| Role actuel | Relais SMTP pour imprimante |
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin local | Coffre-fort > SorM365 > Admin local |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
Role reduit : cette VM ne sert aujourd'hui que de relais SMTP pour une imprimante (scan-to-mail ou notifications).
Si SorM365 tombe : - L'imprimante ne peut plus envoyer d'emails (scans, notifications) - Aucun impact sur la production ni sur Microsoft 365
A evaluer : cette VM pourrait etre remplacee par une configuration SMTP directe sur l'imprimante (via M365 direct send ou un connecteur SMTP cloud) pour simplifier l'infrastructure.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| CLU-Soreal (soresx1/soresx2) | VM inaccessible |
| SAN01 | Stockage VM perdu |
| Acces Internet / M365 | Relais SMTP ne peut pas transmettre les mails |
| Est requis par | Impact si SorM365 tombe |
|---|---|
| Imprimante (scan-to-mail) | Plus d'envoi d'email depuis l'imprimante |
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- Verifier dans vCenter : https://10.1.230.40
- VM SorM365 > etat
- Si Powered Off > clic droit > Power On
- Attendre demarrage complet (~3-5 min)
- Se connecter en RDP sur 10.1.230.160
- Verifier le service SMTP :
- Si IIS SMTP :
services.msc> "Simple Mail Transfer Protocol" = Running - Si autre relay : verifier le service concerne (A completer)
- Test : envoyer un scan depuis l'imprimante, verifier la reception de l'email
Impact limite
Si la VM ne demarre pas : l'impact est limite (pas de scan-to-mail). Pas de restauration urgente necessaire. Restaurer depuis Veeam quand possible.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| Microsoft (M365) | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SAN01 - Stockage SAN hebergeant la VM
- fiche-reflexe-SORESX1 - Hyperviseur du cluster
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- carte-dependances-vonnas - Carte des dependances systemes
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
FICHE REFLEXE - SORERLA¶
Criticite : C2 IMPORTANT | Derniere MAJ : 2026-02-11 | Site : Vonnas (Bureaux)
Identification¶
| Champ | Valeur |
|---|---|
| Nom systeme | SORERLA |
| Type | VM - Gestion stations carburant |
| IP principale | 10.1.230.109 |
| FQDN | sorerla.d-sormg.local |
| Hebergement | CLU-Soreal (soresx1 ou soresx2) |
| OS | Windows Server 2012 |
| Logiciel | ERLA (gestion stations carburant) |
OS OBSOLETE
Windows Server 2012 est en fin de support Microsoft depuis octobre 2023. Aucune mise a jour de securite. Planifier une migration ou un isolement reseau.
Credentials d'urgence¶
| Compte | Reference |
|---|---|
| Admin local | Coffre-fort > SORERLA > Admin local |
Securite
AUCUN mot de passe en clair - Consulter le coffre-fort de l'entreprise
POINT CRITIQUE
SORERLA gere les stations a carburant du groupe. Si cette VM tombe : - Les stations carburant ne sont plus gerees (distribution, suivi consommation) - L'impact est operationnel mais pas bloquant pour la production usine
Windows Server 2012 = OS obsolete, risque securite eleve. Cette VM devrait etre isolee au maximum sur le reseau.
Dependances¶
| Depend de | Impact si absent |
|---|---|
| CLU-Soreal (soresx1/soresx2) | VM inaccessible |
| SAN01 | Stockage VM perdu |
| SORDC1/SORDC2 | Authentification AD KO |
| Reseau (switches, Fortigate) | Plus de communication |
| Est requis par | Impact si SORERLA tombe |
|---|---|
| Stations carburant | Plus de gestion centralisee des stations |
Vue globale
Pour la carte complete des dependances inter-systemes : voir carte-dependances-vonnas
Procedure de redemarrage rapide¶
- Verifier dans vCenter : https://10.1.230.40
- VM SORERLA > etat (Powered Off, Suspended, Error ?)
- Si Powered Off > clic droit > Power On
- Attendre demarrage complet (~3-5 min)
- Se connecter en RDP sur 10.1.230.109
- Verifier le logiciel ERLA :
- L'application ERLA demarre-t-elle automatiquement ?
- Verifier les services associes (A completer)
- Verification finale : acces a l'interface ERLA fonctionnel
Si la VM ne demarre pas
Verifier l'hote ESXi dans vCenter. Si l'hote est en panne, la VM peut migrer sur l'autre noeud du cluster (HA). Sinon, restaurer depuis Veeam.
Contact support¶
| Fournisseur | Telephone | Portail | N° contrat |
|---|---|---|---|
| Editeur ERLA | A completer | A completer | A completer |
Voir aussi¶
- fiche-reflexe-SORDC1 - Authentification AD requise
- fiche-reflexe-SAN01 - Stockage SAN hebergeant la VM
- carte-dependances-vonnas - Carte des dependances systemes
- plan-adressage-ip-vonnas - Plan IP complet Vonnas
- infrastructure-vonnas-synthese - Synthese infrastructure Vonnas
📋 Fiche generee par Sentinel (A7) le 2026-02-11 | Pack Panne v0.1
3. Procedures de restauration¶
SECTION INCOMPLETE
Aucune procedure de restauration detaillee n'a ete creee pour le moment. Les fiches reflexes (section 2) contiennent les procedures de redemarrage rapide en 3-5 etapes. Pour des procedures completes (restauration Veeam, rebuild, etc.), utiliser /doc-resilience → workflow a7-procedure-restauration.
A creer en priorite :
| # | Systeme | Priorite | Raison |
|---|---|---|---|
| 1 | SAN01 | Critique | SPOF cluster, aucune procedure de rebuild documentee |
| 2 | SORDC1 | Critique | Roles FSMO, restauration AD non-triviale |
| 3 | _SRLV-SERV-BDD | Haute | Restauration Oracle + PostgreSQL specifique |
| 4 | soresx1/soresx2 | Haute | Rebuild ESXi depuis zero si perte physique |
4. Matrice des sauvegardes¶
Matrice des Sauvegardes — Vonnas¶
Derniere MAJ : 2026-02-15 | Version : 1.0 Source : Console Veeam B&R (SorSauvegarde) + interview operateur Systemes evalues : 14 actifs | Alertes actives : 5
Alertes¶
Systeme C1 sans sauvegarde
- SAN01 (HPE MSA 2040) — config RAID/LUN non sauvegardee
Points d'attention
- RTO/RPO non definis pour aucun systeme — impossible de valider l'adequation des sauvegardes
- Aucun test de restauration documente — une sauvegarde non testee est une sauvegarde qui echouera
- VCSA7 + ESMC — Backup Job Linux vient d'etre reactive, verifier le succes du premier run
- Duplicate backup VM 2 — statut Warning (jobs sources desactives inclus)
- 2 replications desactivees (Impact haut + Impact moyen) — VMs decommissionnees, jobs a nettoyer
Infrastructure de sauvegarde¶
| Composant | Type | Localisation | Remarque |
|---|---|---|---|
| SorSauvegarde (10.1.230.220) | Serveur Veeam B&R | Bureaux | Orchestrateur principal |
| srv-backup (10.1.230.221) | Serveur UrBackup | Bureaux | Postes usine uniquement |
| Backup Repository Veeam | Disque local SorSauvegarde | Bureaux | Repository principal VMs |
| Disque Dur Externe Quotidien | USB sur SorSauvegarde | Bureaux | Copie locale supplementaire |
| Disque dur externe Hebdo | USB sur SorSauvegarde | Bureaux | Copie hebdomadaire |
| Leviia Repository | Stockage cloud | Hors-site | Copie cloud Nutriciel + DC1 |
| Leviia Repository DC1 Temp | Stockage cloud | Hors-site | Copie cloud SORDC1 |
Matrice par systeme¶
VMs — Criticite C1¶
| Systeme | Job Backup | Retention | Copie hors-site | Replication | RPO estime | Statut |
|---|---|---|---|---|---|---|
| _SRLV-SERV-APP | Backup Job SRLV-SERV-APP (quotidien) | 7 pts | Leviia (7 pts) | Replication Job Nutriciel APP — quotidien → soresxback (7 pts) | ~24h | OK |
| _SRLV-SERV-BDD | Backup Job SRLV-SERV-BDD (quotidien) | 7 pts | Leviia (7 pts) | Replication Job Nutriciel BDD — continu → soresxback (7 pts) | ~minutes | OK |
| SORDC1 | Backup Job Windows 2016 (quotidien) | 14 pts | Leviia DC1 Temp (7 pts) | Replicas-DC — quotidien → soresxback (4 pts) | ~24h | OK |
| SORDC2 | Backup Job Windows 2016 (quotidien) | 14 pts | Dup VM 2 → USB (2 pts) | — (heberge sur soresxback) | ~24h | OK |
| VCSA7 | Backup Job Linux (quotidien, reactive) | 7 pts | Dup VM 2 → USB (2 pts) | — | ~24h | Attention |
VMs — Criticite C2¶
| Systeme | Job Backup | Retention | Copie hors-site | Replication | RPO estime | Statut |
|---|---|---|---|---|---|---|
| SORERLA | Backup Job Windows 2012 (quotidien) | 14 pts | Dup VM 2 → USB (2 pts) | Replicas-VMs-Impact bas — quotidien → soresxback (4 pts) | ~24h | OK |
| ESMC_Appliance | Backup Job Linux (quotidien, reactive) | 7 pts | Dup VM 2 → USB (2 pts) | — | ~24h | Attention |
| SorM365 | Aucun backup | — | — | Replicas-VMs-Impact bas → soresxback (4 pts) | ~24h (repl.) | N/A |
SorM365
Relais SMTP imprimantes — faible importance, pas de donnees a sauvegarder. Protege uniquement par replication (failover possible, pas de restauration point-in-time).
Serveurs physiques¶
| Systeme | Job Backup | Retention | Copie hors-site | RPO estime | Statut |
|---|---|---|---|---|---|
| SorSauvegarde | Backup SORSauvegarde to E: (hebdo) | 2 pts | — | ~7 jours | Attention |
| srv-backup | Backup SRV-Backup (quotidien) + vers disque Hebdo | 3 pts (repo) + 1 pt (USB) | — | ~24h | OK |
Hyperviseurs et stockage (config)¶
| Systeme | Sauvegarde config | Outil | Freq. | Statut |
|---|---|---|---|---|
| soresx1 | Oui | Veeam Configuration Backup Job | Quotidien 10:00 | OK |
| soresx2 | Oui | Veeam Configuration Backup Job | Quotidien 10:00 | OK |
| soresxback | Oui | Veeam Configuration Backup Job | Quotidien 10:00 | OK |
| VCSA7 (config vCenter) | Oui | Veeam Configuration Backup Job | Quotidien 10:00 | OK |
| SAN01 (HPE MSA 2040) | Non | — | — | Critique |
Config ESXi + vCenter sauvegardee
Veeam Configuration Backup Job actif — dernier run : Success, prochain : 16/02/2026 10:00.
Detail des jobs Veeam¶
Jobs de backup (actifs)¶
| Job | Type | Objets | Frequence | Retention | Target | Dernier run | Resultat |
|---|---|---|---|---|---|---|---|
| Backup Job SRLV-SERV-APP | VMware Backup | 1 | Quotidien 22:00 | 7 pts | Backup Repository Veeam | 22h ago | Success |
| Backup Job SRLV-SERV-BDD | VMware Backup | 1 | Quotidien 23:00 | 7 pts | Backup Repository Veeam | 1 day ago | Success |
| Backup Job Windows 2016 | VMware Backup | 2 | Quotidien 01:00 | 14 pts | Backup Repository Veeam | 19h ago | Success |
| Backup Job Windows 2012 | VMware Backup | 1 | Quotidien 00:45 | 14 pts | Backup Repository Veeam | 19h ago | Success |
| Backup Job Linux | VMware Backup | 2 | Quotidien (reactive) | 7 pts | Backup Repository Veeam | 42 days ago | Success |
| Backup SORSauvegarde to E: | Windows Agent | 1 | Hebdomadaire | 2 pts | Disque Dur Externe Quotidien | 14h ago | Success |
| Backup SRV-Backup | Windows Agent | 1 | Quotidien 06:00 | 3 pts | Backup Repository Veeam | 14h ago | Success |
| Backup SRV-Backup vers disque Hebdo | Windows Agent | 1 | Hebdomadaire | 1 pt | Disque dur externe Hebdo | 1 day ago | Success |
Jobs de backup copy (hors-site)¶
| Job | Objets | Trigger | Retention | Target | Dernier run | Resultat |
|---|---|---|---|---|---|---|
| Duplicate backup VM Nutriciel to Leviia | 2 | Nouveaux restore points | 7 pts | Leviia Repository | 22h ago | Success |
| Duplicate backup VM To Leviia-DC1 Temp | 1 | Nouveaux restore points | 7 pts | Leviia Repository DC1 Temp | 19h ago | Success |
| Duplicate backup VM 2 | 4 | Nouveaux restore points | 2 pts | Disque Dur Externe Quotidien | 1 day ago | Warning |
| Duplicate backup VM To Leviia | 1 | Nouveaux restore points | 10 pts | Leviia Repository | 42 days ago | Success |
Duplicate backup VM To Leviia
Inactif depuis 42 jours — probablement lie a un job source desactive (VM decommissionnee). A nettoyer.
Jobs de replication VMware (actifs)¶
| Job | Objets | Frequence | Retention | Dernier run | Resultat |
|---|---|---|---|---|---|
| Replication Job Nutriciel BDD | 1 | Continue (~toutes les heures) | 7 pts | 13 min ago | Success |
| Replication Job Nutriciel APP | 1 | Quotidien 22:00 | 7 pts | 22h ago | Success |
| Replicas-DC | 1 | Quotidien 04:00 | 4 pts | 16h ago | Success |
| Replicas-VMs-Impact bas | 2 | Quotidien 05:00 | 4 pts | 15h ago | Success |
Jobs desactives (VMs decommissionnees — a nettoyer)¶
| Job | Type | Objets | Dernier run | Resultat |
|---|---|---|---|---|
| Backup Job Allix3 | VMware Backup | 1 | Jamais | — |
| Backup Job Windows 2008 | VMware Backup | 1 | 42 days ago | Success |
| Backup Job Windows 2019 | VMware Backup | 1 | 42 days ago | Warning |
| Replicas-VMs-Impact haut | VMware Replication | 3 | 29 days ago | Success |
| Replicas-VMs-Impact moyen | VMware Replication | 1 | 41 days ago | Success |
Sauvegarde postes usine (UrBackup)¶
| Composant | Detail |
|---|---|
| Serveur | srv-backup (10.1.230.221) |
| Outil | UrBackup |
| Cible | Postes de travail usine |
| Sauvegarde du serveur | Veeam Agent quotidien (3 pts) + hebdo USB (1 pt) |
Emplacements de stockage¶
| Emplacement | Type | Contenu | Hors-site |
|---|---|---|---|
| Backup Repository Veeam | Disque local SorSauvegarde | Toutes les VMs + srv-backup agent | Non |
| Disque Dur Externe Quotidien | USB SorSauvegarde | SorSauvegarde agent + Dup VM 2 (4 jobs) | Non (meme salle) |
| Disque dur externe Hebdo | USB SorSauvegarde | srv-backup agent hebdo | Non (meme salle) |
| Leviia Repository | Cloud | Nutriciel APP+BDD + 1 ancien job | Oui |
| Leviia Repository DC1 Temp | Cloud | SORDC1 | Oui |
| soresxback (replicas) | Hyperviseur usine | Replicas VMs critiques | Batiment separe (usine) |
Capacite et utilisation
Les capacites et taux d'utilisation des repositories ne sont pas documentes. A collecter via :
Get-VBRBackupRepository | Select Name, @{N='Total_GB';E={[math]::Round($_.GetContainer().CachedTotalSpace.InGigabytes,1)}}, @{N='Free_GB';E={[math]::Round($_.GetContainer().CachedFreeSpace.InGigabytes,1)}} | ft -auto
Analyse des ecarts¶
Protection par niveau¶
| Systeme | Backup local | Copie USB | Copie cloud | Replication | Niveaux |
|---|---|---|---|---|---|
| _SRLV-SERV-APP | X | X | X | X | 4 |
| _SRLV-SERV-BDD | X | X | X | X | 4 |
| SORDC1 | X | X | X | X | 4 |
| SORDC2 | X | X | 2 | ||
| SORERLA | X | X | X | 3 | |
| VCSA7 | X | X | 2 | ||
| ESMC_Appliance | X | X | 2 | ||
| SorM365 | X | 1 | |||
| SorSauvegarde | X | 1 | |||
| srv-backup | X | X | 2 | ||
| soresx1 (config) | X | 1 | |||
| soresx2 (config) | X | 1 | |||
| soresxback (config) | X | 1 | |||
| SAN01 (config) | 0 |
Compte de service¶
| Outil | Compte | Reference |
|---|---|---|
| Veeam B&R → vCenter | Compte admin domaine | Coffre-fort a documenter |
Documenter les credentials
Le compte admin domaine utilise par Veeam doit etre documente dans la matrice-credentials avec reference coffre-fort. Voir workflow a7-matrice-credentials.
Recommandations¶
| # | Priorite | Action | Commande/outil |
|---|---|---|---|
| 1 | Critique | Sauvegarder la config SAN01 (HPE MSA 2040) | Export config via interface web MSA |
| 2 | Haute | Definir RTO/RPO par systeme C1 | Atelier avec responsable production |
| 3 | Haute | Planifier un test de restauration (1 VM C1) | Restauration Veeam en bac a sable |
| 4 | Haute | Verifier le premier run de Backup Job Linux (VCSA7+ESMC) | Console Veeam |
| 5 | Moyenne | Sauvegarder la config FortiGate 60F | execute backup config tftp ou export GUI |
| 6 | Moyenne | Nettoyer les 5 jobs desactives (VMs decommissionnees) | Supprimer dans Veeam |
| 7 | Moyenne | Documenter la capacite des repositories | Commande PowerShell ci-dessus |
| 8 | Basse | Ajouter copie cloud (Leviia) pour SORDC2 | Backup Copy job dans Veeam |
Voir aussi¶
- carte-dependances-vonnas — Dependances entre systemes et ordre de restauration
- infrastructure-vonnas-synthese — Vue d'ensemble infrastructure VMware
- Pour les details reseau, voir plan-adressage-ip-vonnas
Matrice generee par Sentinel (A7) | Pack Panne v1.0
5. Credentials d'urgence¶
Section exclue par decision operateur
La matrice des credentials n'est pas incluse dans la documentation — trop sensible. Les credentials sont stockes exclusivement dans le coffre-fort IT.
Acces au coffre-fort en situation de crise¶
| Information | Detail |
|---|---|
| Outil | Coffre-fort IT (KeePass ou equivalent) |
| Emplacement | A confirmer avec l'operateur |
| Copie de secours | A confirmer (cle USB chiffree ?) |
| Acces si coffre-fort inaccessible | Contacts physiques equipe IT |
References credentials par systeme¶
| Systeme | Reference coffre-fort |
|---|---|
| soresx1 / soresx2 / soresxback | Coffre-fort > Serveurs > iLO + ESXi root |
| SAN01 | Coffre-fort > Stockage > MSA 2040 admin |
| SORDC1 / SORDC2 | Coffre-fort > SORDC1 > Admin local + Admin domaine + DSRM |
| FortiGate 60F | Coffre-fort > Reseau > FortiGate admin |
| VCSA7 | Coffre-fort > VMware > vCenter root + SSO administrator |
| Veeam | Coffre-fort > Sauvegarde > Veeam admin |
AUCUN mot de passe en clair dans ce document
Toujours se referer au coffre-fort IT pour les credentials.
6. Guide "Tout est down"¶
Guide "Tout est Down" — Vonnas¶
Derniere MAJ : 2026-02-15 | Version : 1.0 Ce guide fonctionne SANS reseau, SANS AD, SANS acces distant. Imprimer ce document et le stocker dans chaque salle serveur.
Acces physique aux salles serveur¶
| Salle | Localisation | Acces | Equipements |
|---|---|---|---|
| Salle serveur Bureaux | Batiment administratif | Serrure physique (cle) | soresx1, soresx2, SAN01, SorSauvegarde, srv-backup, FortiGate 60F, BAIE_ADMINISTRATION, FortiSwitch bureaux |
| Salle serveur Usine | Salle electrique usine | Serrure physique (cle) | soresxback, BAIE_INDUS, switches HP 1910 |
Cles
S'assurer que les cles des deux salles sont accessibles en permanence (trousseau IT + double en lieu sur).
Kit d'urgence¶
Avant d'intervenir, verifier que vous avez :
- Portable IT avec navigateur web (acces iLO/FortiGate)
- Cable console RJ45-DB9 ou USB (pour FortiGate)
- Cable reseau RJ45 (pour branchement direct sur iLO ou switch)
- Ce document imprime
- Acces au coffre-fort IT (cloud ou copie locale sur le portable)
Acces management hors-bande (iLO)¶
Acces iLO
Les interfaces iLO sont accessibles depuis n'importe quel port reseau / VLAN (sauf VLAN visiteur). Brancher le portable sur un port libre de n'importe quel switch, configurer une IP en 10.1.250.x, et acceder via navigateur.
IPs management¶
| Equipement | IP iLO / Management | Acces |
|---|---|---|
| soresx1 | 10.1.250.10 | https://10.1.250.10 — Console distante ESXi |
| soresx2 | 10.1.250.20 | https://10.1.250.20 — Console distante ESXi |
| soresxback | 10.1.250.50 | https://10.1.250.50 — Console distante ESXi |
| SorSauvegarde | 10.1.250.220 | https://10.1.250.220 — Console distante Windows |
| SAN01 ctrl A | 10.1.250.1 | https://10.1.250.1 — Interface HPE MSA |
| SAN01 ctrl B | 10.1.250.2 | https://10.1.250.2 — Interface HPE MSA |
| FortiGate 60F | 10.1.1.99 | https://10.1.1.99 — Interface web admin |
Configuration IP manuelle du portable¶
Pour acceder aux iLO si le DHCP est down :
IP : 10.1.250.100 (ou toute IP libre en 10.1.250.x)
Masque : 255.255.255.0
Passerelle : 10.1.1.99 (FortiGate, si necessaire)
DNS : non necessaire pour acces direct iLO
Acces console FortiGate (si web inaccessible)¶
- Brancher le cable console (RJ45-DB9 ou USB) sur le port CONSOLE du FortiGate
- Ouvrir PuTTY (ou equivalent) en mode Serial
- Parametres : 9600 baud, 8 bits, pas de parite, 1 bit stop (9600 8N1)
- Login avec les credentials admin FortiGate (voir coffre-fort IT)
Procedure : Tout est down — par ou commencer ?¶
REGLE D'OR
Deux chaines independantes a restaurer en parallele : BUREAUX et USINE. Ne pas attendre que les bureaux soient up pour commencer l'usine (et inversement). Pour l'ordre detaille par vague, voir carte-dependances-vonnas.
Etape 0 : Diagnostic rapide (5 min)¶
Avant de toucher quoi que ce soit :
- Verifier l'alimentation electrique — les onduleurs sont-ils alimentes ? Les voyants serveurs sont-ils allumes ?
- Verifier le FortiGate — voyants allumes ? Si oui, essayer l'interface web (10.1.1.99). Si non, verifier l'alimentation.
- Classification de la panne :
| Symptome | Diagnostic probable | Aller a |
|---|---|---|
| Plus rien du tout, silence complet | Coupure electrique | Scenario A |
| FortiGate allume, pas de reseau | Panne switch ou FortiLink | Scenario B |
| Reseau OK, VMs down | Panne hyperviseur ou stockage | Scenario C |
| Un seul service down | Panne isolee | Fiche reflexe du systeme concerne |
Scenario A : Coupure electrique totale¶
Salle bureaux :
| Etape | Action | Verification |
|---|---|---|
| A1 | Rearmer le tableau electrique / onduleur Riello | Voyants onduleur OK |
| A2 | Attendre boot FortiGate 60F (~2-3 min) | LED status vert fixe |
| A3 | Attendre boot FortiSwitch via FortiLink (~2-3 min) | execute switch-controller get-conn-status |
| A4 | Verifier SAN01 (voyants controllers A/B) | https://10.1.250.1 accessible |
| A5 | Power On soresx1 + soresx2 via iLO | https://10.1.250.10 + .20 → Power On |
| A6 | Attendre demarrage VMs autostart (~5-10 min) | SORDC1 repond au ping |
| A7 | Verifier VCSA7 demarre apres SORDC1 | https://vcsa.d-sormg.local accessible |
| A8 | Verifier les autres VMs dans vCenter | Toutes les VMs en Running |
| A9 | Power On SorSauvegarde via iLO | https://10.1.250.220 → Power On |
Salle usine (en parallele) :
| Etape | Action | Verification |
|---|---|---|
| A10 | Verifier alimentation usine | Voyants switches HP allumes |
| A11 | Power On soresxback via iLO | https://10.1.250.50 → Power On |
| A12 | Attendre SORDC2 autostart | SORDC2 repond au ping |
| A13 | Power On _SRLV-SERV-BDD EN PREMIER | Attendre Oracle + PostgreSQL up |
| A14 | Power On _SRLV-SERV-APP EN SECOND | ERP Nutriciel operationnel |
Ordre strict usine
BDD avant APP — toujours. L'application Nutriciel ne demarre pas correctement si la base de donnees n'est pas disponible.
Scenario B : Reseau down (FortiGate ou switches)¶
Si FortiGate ne repond pas :
| Etape | Action |
|---|---|
| B1 | Verifier alimentation FortiGate — cable secteur, onduleur |
| B2 | Si allume mais inaccessible : brancher cable console (9600 8N1) |
| B3 | En console : get system status pour verifier l'etat |
| B4 | Si bloque : redemarrage execute reboot (confirmer "y") |
| B5 | Si config corrompue : FortiGate peut rebooter en config usine — contacter support Fortinet avant |
Si FortiSwitch ne remonte pas apres boot FortiGate :
| Etape | Action |
|---|---|
| B6 | Verifier le cablage FortiLink (port FortiGate → BAIE_ADMIN) |
| B7 | execute switch-controller get-conn-status — verifier quels switches sont connectes |
| B8 | Si un switch ne remonte pas : verifier alimentation PoE et cable |
| B9 | Rappel : les switches passent le trafic meme sans FortiLink (mode degrade) |
Scenario C : VMs down (hyperviseur ou stockage)¶
Si SAN01 est down (toutes VMs bureaux impactees) :
| Etape | Action |
|---|---|
| C1 | Acceder a https://10.1.250.1 (ctrl A) ou https://10.1.250.2 (ctrl B) |
| C2 | Verifier l'etat des controllers et des disques |
| C3 | Si un controller est down : le second prend le relais (failover auto) |
| C4 | Si les deux controllers sont down : contacter support HPE immediatement |
| C5 | En attendant : les replicas sur soresxback peuvent prendre le relais (failover Veeam) |
Si un hyperviseur ne repond pas :
| Etape | Action |
|---|---|
| C6 | Acceder a iLO (voir tableau IPs ci-dessus) |
| C7 | Verifier l'etat : Power On ? Screen frozen ? PSOD (Purple Screen) ? |
| C8 | Si freeze/PSOD : Hard Reset via iLO (Power → Reset) |
| C9 | Si ne boot pas : verifier POST, memoire, disques dans iLO (logs hardware) |
| C10 | VMs non HA : attendre reboot. VMs critiques : basculer manuellement vers l'autre ESXi via vCenter |
Si vCenter (VCSA7) est down mais ESXi fonctionnent :
| Etape | Action |
|---|---|
| C11 | Les VMs continuent de tourner sans vCenter |
| C12 | Gerer chaque ESXi individuellement : https://10.1.250.10/ui ou https://10.1.250.20/ui |
| C13 | Pas de vMotion, pas de HA, pas de DRS en mode degrade |
| C14 | VCSA7 devrait redemarrer tout seul une fois SORDC1 (DNS) disponible |
Scenario D : AD / DNS down¶
Si SORDC1 est down (DC principal) :
| Etape | Action |
|---|---|
| D1 | SORDC2 prend le relais automatiquement (DNS + DHCP + auth) |
| D2 | Verifier que les clients pointent aussi vers SORDC2 en DNS secondaire |
| D3 | Restaurer SORDC1 des que possible (roles FSMO) |
Si SORDC1 ET SORDC2 sont down :
| Etape | Action |
|---|---|
| D4 | Plus d'authentification AD, plus de DNS interne, plus de DHCP |
| D5 | Priorite absolue : restaurer SORDC1 en premier (il detient les roles FSMO) |
| D6 | Les VMs et services continuent de tourner mais aucun nouveau login possible |
| D7 | FortiGate continue de router (pas de dependance AD) |
Contacts d'urgence¶
| Role | Qui contacter | Quand |
|---|---|---|
| IT Vonnas | Equipe IT (2 personnes) | Premier reflexe |
| Support HPE | Numero contrat support | Panne SAN01 ou serveurs physiques |
| Support Fortinet | Numero contrat support | Panne FortiGate non resolue |
| Electricien | Prestataire site | Panne electrique non resoluble |
| Actemium | Editeur ERP Nutriciel | Probleme applicatif ERP apres restauration |
Completer les numeros de telephone
Les numeros de telephone et references de contrats support sont a ajouter. Voir workflow a7-annuaire-fournisseurs.
Checklist post-restauration¶
Apres remise en service, verifier dans l'ordre :
- Tous les FortiSwitch remontes :
execute switch-controller get-conn-status - SAN01 controllers A+B OK : https://10.1.250.1
- Tous les ESXi visibles dans vCenter
- SORDC1 + SORDC2 : replication AD OK (
repadmin /replsummary) - VMs critiques toutes en Running (vCenter)
- ERP Nutriciel operationnel (BDD puis APP)
- Sauvegardes Veeam : relancer les jobs si necessaire
- Tester la telephonie 3CX
- Tester l'acces Internet + VPN
- Notifier les utilisateurs de la reprise
Voir aussi¶
- carte-dependances-vonnas — Ordre de restauration detaille par vagues et dependances
- matrice-sauvegardes-vonnas — Matrice des sauvegardes et replications
- topologie-reseau-vonnas — Schema reseau complet
- cablage-brassage-vonnas — Mapping port par port
- plan-adressage-ip-vonnas — Plan d'adressage IP complet
Guide genere par Sentinel (A7) le 2026-02-15 | Site Vonnas IMPRIMER CE DOCUMENT et le stocker dans chaque salle serveur.
7. Annuaire fournisseurs¶
Annuaire Fournisseurs IT — Vonnas¶
Derniere MAJ : 2026-02-15 | Version : 1.0 Objectif : Trouver le bon contact en moins de 2 minutes en situation de crise. IMPRIMER et stocker avec le Pack Panne.
Contacts critiques (systemes C1)¶
HPE — Serveurs & Stockage¶
| Systemes | soresx1, soresx2, soresxback, SAN01, SorSauvegarde |
| Tel support | XX XX XX XX XX |
| Portail | https://support.hpe.com |
| Identifiant portail | A COMPLETER |
| Quand appeler | Panne materielle serveur, disques SAN, controller SAN, iLO |
| Infos a preparer | Numero de serie du serveur (etiquette physique ou iLO), description panne |
Fortinet — Firewall & Switches¶
| Systemes | FortiGate 60F (S/N GT60FTK2109CWPM), 5x FortiSwitch, FortiAP |
| Tel support | XX XX XX XX XX |
| Portail | https://support.fortinet.com |
| Identifiant portail | A COMPLETER |
| Quand appeler | Panne FortiGate, probleme FortiLink, firmware, licence expiree |
| Infos a preparer | S/N equipement, version firmware (get system status), description |
Actemium — ERP Nutriciel¶
| Systemes | _SRLV-SERV-APP, _SRLV-SERV-BDD (Oracle + PostgreSQL) |
| Tel support | XX XX XX XX XX |
A COMPLETER |
|
| Quand appeler | Probleme applicatif ERP, erreur base de donnees, apres restauration |
| Infos a preparer | Version Nutriciel, message d'erreur, logs applicatifs |
VMware / Broadcom — Virtualisation¶
| Systemes | ESXi 6.5/6.7, vCenter (VCSA7) |
| Tel support | XX XX XX XX XX |
| Portail | https://support.broadcom.com |
| Identifiant portail | A COMPLETER |
| Quand appeler | PSOD ESXi, probleme vCenter, corruption VMDK, cluster degrade |
| Infos a preparer | Version ESXi/vCenter, logs (vm-support), description |
Veeam — Sauvegarde¶
| Systemes | SorSauvegarde (Veeam B&R) |
| Tel support | XX XX XX XX XX |
| Portail | https://my.veeam.com |
| Identifiant portail | A COMPLETER |
| Quand appeler | Echec restauration, corruption backup, probleme replication |
| Infos a preparer | Version Veeam, logs job, description du probleme |
Oracle — Base de donnees¶
| Systemes | _SRLV-SERV-BDD |
| Tel support | XX XX XX XX XX |
| Portail | https://support.oracle.com |
| Identifiant portail | A COMPLETER |
| Quand appeler | Corruption base, probleme demarrage instance, performance critique |
| Infos a preparer | Version Oracle, alert log, description |
Contacts standard (systemes C2)¶
Microsoft — OS & Cloud¶
| Systemes | Windows Server, M365, Active Directory, Entra ID |
| Tel support | XX XX XX XX XX |
| Portail | https://admin.microsoft.com |
| Identifiant portail | A COMPLETER |
| Quand appeler | Probleme M365, Entra ID, licence, Windows Server |
ESET — Antivirus¶
| Systemes | ESMC_Appliance |
| Tel support | XX XX XX XX XX |
| Portail | https://support.eset.com |
| Quand appeler | Incident securite, probleme console ESMC, faux positif bloquant |
3CX — Telephonie VoIP¶
| Systemes | SBC + 20 postes Yealink |
| Tel support | XX XX XX XX XX |
| Portail | A COMPLETER |
| Quand appeler | Telephonie down, probleme SBC, configuration postes |
Leviia — Stockage cloud¶
| Systemes | Repository backup hors-site (Veeam Backup Copy) |
| Tel support | XX XX XX XX XX |
| Portail | A COMPLETER |
| Quand appeler | Echec copie backup vers cloud, probleme acces repository |
Services & Prestataires¶
FAI / Telecom¶
| Service | Acces Internet site Vonnas |
| Fournisseur | A COMPLETER |
| Tel support | XX XX XX XX XX |
| Ref. client / ligne | A COMPLETER |
| Quand appeler | Perte acces Internet, latence anormale, panne lien WAN |
Electricien / Onduleur¶
| Service | Maintenance electrique, onduleur Riello |
| Fournisseur | A COMPLETER |
| Tel support | XX XX XX XX XX |
| Quand appeler | Coupure electrique non resoluble, panne onduleur |
Prestataire IT externe¶
| Service | Support IT complementaire (si applicable) |
| Fournisseur | A COMPLETER |
| Tel support | XX XX XX XX XX |
| Quand appeler | Renfort en cas de crise majeure |
Contacts internes¶
Equipe IT¶
| Nom | Role | Telephone | Disponibilite |
|---|---|---|---|
A COMPLETER |
Responsable IT | XX XX XX XX XX |
A COMPLETER |
A COMPLETER |
Technicien IT | XX XX XX XX XX |
A COMPLETER |
Escalade direction¶
| Nom | Role | Telephone | Quand contacter |
|---|---|---|---|
A COMPLETER |
Direction | XX XX XX XX XX |
Panne majeure > 1h impactant la production |
Voir aussi¶
- guide-tout-down — Procedures d'urgence quand tout est down
- matrice-sauvegardes-vonnas — Matrice des sauvegardes
- carte-dependances-vonnas — Dependances et ordre de restauration
Annuaire genere par Sentinel (A7) le 2026-02-15 | Site Vonnas Completer tous les champs
A COMPLETERetXX XX XX XX XXavant impression.
8. Communication de crise¶
Plan de Communication de Crise IT — Vonnas¶
Derniere MAJ : 2026-02-15 | Version : 1.0 Objectif : Savoir qui prevenir, quand, comment, avec quel message — meme si email et Teams sont down. IMPRIMER et stocker avec le Pack Panne.
Chaine d'escalade¶
| Niveau | Qui | Delai | Canal | Declencheur |
|---|---|---|---|---|
| N1 | Equipe IT (2 personnes) | Immediat | Telephone direct | Detection incident |
| N2 | A COMPLETER — Responsable IT / DSI |
< 15 min | Telephone | Incident non resolu en 15 min |
| N3 | A COMPLETER — Direction metier |
< 30 min | Telephone | Impact production / utilisateurs |
| N4 | A COMPLETER — Direction generale |
< 1h | Telephone | Crise majeure, panne > 1h, donnees compromises |
Regle d'escalade
Qui decide de l'escalade ? A COMPLETER
En cas de doute, escalader. Mieux vaut une fausse alerte qu'une crise non communiquee.
Canaux de communication¶
Canaux principaux¶
| Canal | Usage | Dependance infra |
|---|---|---|
| Email (M365) | Communication formelle, traces ecrites | Internet + M365 |
| Teams | Communication rapide equipe | Internet + M365 |
| Telephone fixe (3CX) | Appels internes | Reseau local + FortiGate |
Canaux alternatifs (si principaux down)¶
| Canal | Usage | Comment activer | Independant de l'infra ? |
|---|---|---|---|
| Telephone mobile | Communication de crise primaire | Appeler directement | Oui |
| SMS | Notification rapide de groupe | Envoyer SMS de groupe | Oui |
| WhatsApp / Signal | Groupe IT urgence | A COMPLETER — creer le groupe |
Oui (4G) |
| Affichage physique | Information utilisateurs sur site | Afficher en salle de pause / accueil | Oui |
Bascule sur canal alternatif
Si email ET Teams sont down → basculer immediatement sur telephone mobile + SMS. Ne pas attendre la resolution pour communiquer.
Templates de messages¶
Message N1 — Notification equipe IT¶
INCIDENT IT — [DATE] [HEURE]
Systeme(s) impacte(s) : [SYSTEME]
Impact : [DESCRIPTION IMPACT]
Statut : En cours de diagnostic
Action en cours : [ACTION]
Prochain point : dans [X] minutes
Contact : [NOM] [TEL]
Message N2 — Escalade responsable¶
ESCALADE INCIDENT IT — [DATE] [HEURE]
Severite : [CRITIQUE / MAJEURE / MINEURE]
Systeme(s) impacte(s) : [SYSTEME]
Impact metier : [IMPACT PRODUCTION / UTILISATEURS]
Debut incident : [HEURE]
Duree actuelle : [X] min/heures
Actions realisees :
- [ACTION 1]
- [ACTION 2]
Prochaine etape : [ACTION PREVUE]
Decision requise : [OUI/NON — si oui, laquelle]
Message N3 — Information direction¶
INFORMATION INCIDENT IT — [DATE] [HEURE]
Resume : [1-2 phrases non techniques]
Impact : [ce que les utilisateurs / la production subit]
Estimation de retablissement : [HEURE estimee ou "en cours d'evaluation"]
L'equipe IT est mobilisee. Prochain point dans [X] minutes.
Message utilisateurs — Panne en cours¶
INFORMATION — Perturbation informatique
Chers collegues,
Nous rencontrons actuellement un incident technique affectant [SERVICE].
Nos equipes sont mobilisees pour retablir le service au plus vite.
Impact : [CE QUI NE FONCTIONNE PAS]
Contournement : [SI POSSIBLE — ex: "utiliser le telephone mobile"]
Estimation : [HEURE de retablissement estimee ou "en cours d'evaluation"]
Merci de votre comprehension.
L'equipe informatique
Message de resolution¶
RESOLUTION — Incident IT du [DATE]
Le service [SERVICE] est retabli depuis [HEURE].
Cause : [CAUSE en termes simples]
Actions correctives : [CE QUI A ETE FAIT]
Actions preventives : [CE QUI SERA MIS EN PLACE]
Si vous constatez encore des problemes, contactez [NOM] [TEL].
Un retour d'experience sera organise le [DATE REX].
Fiches reflexes communication par scenario¶
Panne Internet¶
| Etape | Action | Canal |
|---|---|---|
| 1 | Diagnostiquer (FortiGate → WAN status) | — |
| 2 | Notifier equipe IT | Tel mobile |
| 3 | Contacter FAI (A COMPLETER — voir annuaire-fournisseurs) |
Tel mobile |
| 4 | Informer utilisateurs | Affichage physique / SMS |
| 5 | Mise a jour toutes les 30 min | Tel / SMS |
Panne email / Teams (M365 down)¶
| Etape | Action | Canal |
|---|---|---|
| 1 | Verifier status.microsoft.com | 4G portable |
| 2 | Notifier equipe IT | Tel mobile |
| 3 | Basculer communication sur telephone + SMS | Tel mobile |
| 4 | Informer utilisateurs | Affichage physique / passage dans les bureaux |
| 5 | Si > 1h : escalader N2 | Tel mobile |
Panne electrique¶
| Etape | Action | Canal |
|---|---|---|
| 1 | Verifier onduleur (autonomie restante) | Sur place |
| 2 | Notifier equipe IT | Tel mobile |
| 3 | Contacter electricien (A COMPLETER — voir annuaire-fournisseurs) |
Tel mobile |
| 4 | Si > 30 min : informer direction (N3) | Tel mobile |
| 5 | Suivre procedure redemarrage (guide-tout-down) apres retour courant | — |
Suspicion ransomware¶
NE PAS communiquer les details par email ou Teams
Le canal de communication pourrait etre compromis. Utiliser UNIQUEMENT le telephone.
| Etape | Action | Canal |
|---|---|---|
| 1 | Isoler les systemes suspects (debrancher reseau) | Sur place |
| 2 | Notifier equipe IT | Tel mobile uniquement |
| 3 | Escalader N2 + N3 immediatement | Tel mobile uniquement |
| 4 | Contacter ANSSI si necessaire (0 805 692 351) | Tel |
| 5 | Ne pas payer, ne pas negocier sans conseil legal | — |
| 6 | Informer utilisateurs : eteindre les postes, ne rien toucher | Passage physique |
Panne longue (> 4h)¶
| Etape | Action | Canal |
|---|---|---|
| 1 | Escalader N3 + N4 si pas encore fait | Tel mobile |
| 2 | Mise a jour toutes les heures aux parties prenantes | Tel / SMS |
| 3 | Informer utilisateurs du plan de contournement | Affichage / SMS |
| 4 | Planifier rotation equipe IT si besoin | Tel |
| 5 | Documenter chronologie pour retour d'experience | Papier / portable |
Post-incident¶
| Action | Delai | Responsable |
|---|---|---|
| Envoyer message de resolution | Des la reprise | Equipe IT |
| Organiser retour d'experience (REX) | < 5 jours ouvrables | A COMPLETER |
| Rediger rapport post-mortem | < 10 jours | A COMPLETER |
| Mettre a jour la documentation impactee | < 10 jours | Agent BMAD concerne |
Numeros d'urgence¶
| Contact | Telephone |
|---|---|
| IT — Personne 1 | XX XX XX XX XX |
| IT — Personne 2 | XX XX XX XX XX |
| Responsable / DSI | XX XX XX XX XX |
| Direction | XX XX XX XX XX |
| FAI | XX XX XX XX XX |
| Electricien | XX XX XX XX XX |
| ANSSI (ransomware) | 0 805 692 351 |
Completer les numeros
Remplir tous les XX XX XX XX XX et les champs A COMPLETER. Voir aussi annuaire-fournisseurs.
Voir aussi¶
- guide-tout-down — Procedures techniques de redemarrage
- annuaire-fournisseurs — Contacts fournisseurs complets
- carte-dependances-vonnas — Dependances systemes et ordre de restauration
Plan genere par Sentinel (A7) le 2026-02-15 | Site Vonnas IMPRIMER et stocker avec le Pack Panne.
9. Plan de reprise (PRA)¶
SECTION NON DOCUMENTEE
Le scenario PRA perte totale de site n'a pas ete cree. Pour le generer, utiliser /doc-resilience → workflow a7-pra-perte-totale.
Elements deja disponibles¶
- Replicas Veeam : VMs critiques repliquees sur soresxback (usine, batiment separe)
- Copie hors-site : Nutriciel APP+BDD + SORDC1 sur Leviia (cloud)
- Deux chaines independantes : Bureaux (CLU-Soreal) et Usine (soresxback) peuvent fonctionner separement
A documenter¶
- Scenario reconstruction complete depuis zero (perte totale site)
- Dependances circulaires et resolution
- Temps de reconstruction estime (RTO global)
10. Tests et validation¶
SECTION NON DOCUMENTEE
Aucun test de restauration n'a ete planifie ni execute. Pour planifier, utiliser /doc-resilience → workflow a7-tests-restauration.
Recommandations¶
| # | Test | Frequence recommandee | Priorite |
|---|---|---|---|
| 1 | Restauration VM C1 en bac a sable (Veeam) | Trimestriel | Critique |
| 2 | Failover SORDC1 → SORDC2 | Semestriel | Haute |
| 3 | Restauration _SRLV-SERV-BDD (Oracle) | Semestriel | Haute |
| 4 | Basculement SAN01 controller A → B | Annuel | Moyenne |
| 5 | Simulation panne totale (guide tout-down) | Annuel | Moyenne |
Statistiques Pack Panne¶
| Metrique | Valeur |
|---|---|
| Date generation | 2026-02-17 |
| Version | 1.0 |
| Systemes couverts | 14/14 (100%) |
| Fiches reflexes | 14/14 (100%) |
| Procedures restauration | 0/14 (0%) |
| Sections completes | 7/10 |
| Sections partielles | 1/10 (credentials — exclu volontairement) |
| Sections manquantes | 2/10 (PRA, tests) |
Prochaines actions pour completer le Pack Panne
- Procedures restauration : creer au minimum SAN01, SORDC1, _SRLV-SERV-BDD (
/doc-resilience) - PRA perte totale : scenario de reconstruction (
/doc-resilience) - Tests restauration : planifier le premier test trimestriel
- Completer l'annuaire : numeros de telephone et contacts (
XX XX XX XX XX) - Exporter en PDF et stocker sur cle USB + impression papier
Pack Panne genere par Sentinel (A7) le 2026-02-17 | Site Vonnas | v1.0 STOCKER CE DOCUMENT HORS INFRASTRUCTURE — cle USB chiffree, impression papier, NAS isole.