L’évaluation des risques systémiques est une discipline scientifique éprouvée, dont l’objectif est de permettre d’identifier les dangers/menaces auxquels le système étudié est exposé, d’analyser les scénarios d’accidents potentiels, leurs causes et leurs conséquences, et enfin de décrire le risque, si possible de manière quantitative, avec une prise en compte adaptée des incertitudes associées à cette évaluation. L’évaluation des risques repose sur les connaissances disponibles concernant le système étudié. En termes simples, l’évaluation des risques est une méthode de collecte et d’organisation des connaissances sur les éléments de risque, afin de permettre une prise de décision rationnelle et éclairée.
Dans cette perspective, l’évaluation des risques doit fournir des informations documentées pour justifier les décisions prises. Les résultats de cette évaluation doivent être communiqués de manière à permettre aux décideurs de les interpréter correctement pour leurs besoins, et de comprendre les incertitudes associées aux connaissances disponibles utilisées pour cette évaluation.
Toutefois, le monde dans lequel nous vivons évolue rapidement à bien des égards. La numérisation ouvre de nouvelles opportunités en matière de connectivité, de surveillance, d’accroissement des connaissances et de connaissance de la situation. Les avancées technologiques améliorent nos processus de production, nos produits et nos services. Une transformation profonde est en cours dans l’industrie, visant une meilleure sécurité, fiabilité, qualité et efficacité. L’Internet des objets (Internet of Things, IoT) et le big data, l’industrie 4.0 et bientôt 5.0, l’intelligence artificielle, les grands modèles de langage (LLM) et l’IA dite générative continueront de modifier notre façon de concevoir, fabriquer, approvisionner des produits et des services.
Dans ce chapitre passionnant de changement et d’évolution significatifs, la fiabilité et la sécurité s’imposent comme une nécessité pour permettre de tirer parti des avantages potentiels et pour répondre aux nouveaux risques qui pourraient émerger.
Concernant ces derniers, l’augmentation des capacités de suivi et surveillance, du partage d’informations, de la disponibilité des données et des capacités de calcul, ainsi que les progrès des méthodes et techniques, offrent de nouvelles opportunités pour améliorer la manière dont nous réalisons l’évaluation des risques1.
En particulier, nous nous pencherons sur deux perspectives de progrès pour l’évaluation des risques :
- l’exploitation de la puissance de calcul pour la simulation, dans le cadre d’une évaluation computationnelle des risques ;
- l’utilisation des données de surveillance enregistrées sur les composants et les systèmes, dans un cadre d’évaluation des risques basée sur leur état réel (approche dite conditionnelle).
Les promesses des approches numériques
De manière générale, les accidents et incidents peuvent être considérés comme des comportements extrêmes des systèmes ou des environnements, et leur caractérisation implique une analyse rigoureuse des données disponibles pour alimenter l’évaluation des risques.
En pratique, cette tâche est loin d’être triviale compte tenu de la complexité des systèmes et des processus : un grand nombre de scénarios, d’événements et de conditions possibles, combinés entre eux, doivent être pris en compte, alors que seuls quelques-uns, rares, conduisent à des situations critiques et dangereuses. Cela rend l’expérimentation non viable économiquement dans la plupart des contextes industriels et physiquement irréalisables dans la plupart des cas critiques pour la sécurité.
C’est pourquoi la simulation a depuis longtemps été préconisée comme un moyen d’explorer et de comprendre le comportement des systèmes pour l’analyse des données et l’aide à la décision, et elle est utilisée pour l’évaluation de la sécurité depuis les années 1970-1980. Cependant, ce sont les avancées constantes dans les techniques de modélisation (y compris les méta-modèles ou modèles de substitution basés sur l’intelligence artificielle) et l’augmentation impressionnante de la puissance de calcul (incluant le calcul parallèle, le cloud computing et le calcul de haute performance) qui poussent à l’utilisation de la simulation pour explorer le comportement des systèmes et à son intégration dans les structures d’évaluation computationnelle des risques.
Les avancées constantes dans les techniques de modélisation et l’augmentation impressionnante de la puissance de calcul poussent à l’utilisation de la simulation.
Dans le cadre d’une exploration des scénarios d’accidents basée sur la simulation, un ensemble de simulations est exécuté avec différentes configurations initiales des paramètres de conception et d’exploitation du système en entrée, et l’état du système est calculé en sortie. L’évaluation de l’état du système par rapport à des conditions de sécurité spécifiées (seuils critiques) permet d’identifier les configurations d’entrée conduisant à des états critiques du système. Ces états forment les régions critiques (Critical Regions, CRs) ou zones de dommage (Damage Domains, DDs). Les CRs peuvent être identifiés en fonction des connaissances et des attentes préalables des analystes, ou être “découverts”, c’est-à-dire que les analystes ne connaissent pas a priori ces configurations critiques et la simulation permet de les identifier.
Parallèlement, la simulation peut également être exploitée pour estimer les probabilités des scénarios d’accidents ou toute autre mesure d’incertitude adoptée pour décrire le risque. Pour cela, les méthodes de Monte-Carlo (MC) de simulation stochastique d’événements discrets sont généralement considérées comme une référence2. En pratique, la simulation MC consiste à générer un grand nombre d’échantillons/essais/scénarios de réponse du système et à compter ceux qui atteignent l’état souhaité, c’est-à-dire ceux qui se terminent dans les CRs (DDs) à des fins d’évaluation des risques. Par exemple, pour estimer la fiabilité d’un système à un instant t, c’est-à-dire la probabilité que le système ne tombe pas en panne avant t, un ensemble de scénarios du système est exécuté et le moment où le système tombe en panne (Time To Failure, TTF) dans chaque scénario est enregistré. Ensuite, la fiabilité du système à l’instant t est estimée comme la fraction des simulations dont le TTF est supérieur à t.
Cependant, en pratique, l’utilisation de la simulation reste un défi majeur, car les modèles de comportement des systèmes sont :
- De grande dimension, c’est-à-dire avec un grand nombre d’entrées et/ou de sorties ;
- Des boîtes noires, c’est-à-dire sans relation explicite entrée/sortie (car codée dans un programme informatique ou implicite dans un méta-modèle empirique, par exemple basé sur des données et l’intelligence artificielle) ;
- Dynamiques, car le système évolue dans le temps ;
- Gourmands en calcul.
En effet, bien que la puissance de calcul ne cesse d’augmenter, dans de nombreuses situations pratiques, le coût computationnel reste un problème pour l’évaluation des risques basée sur la simulation. Cela empêche d’exécuter le modèle pour de nombreuses configurations d’entrée, comme cela serait nécessaire pour caractériser les CRs de systèmes hautement fiables, c’est-à-dire des systèmes caractérisés par des probabilités de défaillance très faibles et dont les CRs correspondent donc à des zones très limitées, difficiles à explorer et à trouver dans le vaste espace des configurations d’entrée. Pour surmonter ce problème, la simulation par échantillonnage adaptatif est proposée pour guider intelligemment la simulation vers les états ciblés du système (c’est-à-dire ceux appartenant aux CRs). Cela implique que les méthodes de simulation soient capables de comprendre automatiquement, pendant la simulation, quelles configurations sont les plus prometteuses à explorer3. En utilisant l’intelligence artificielle et l’apprentissage automatique, ces approches peuvent combiner efficacement la réduction de la dimensionnalité du modèle par sélection des caractéristiques ou analyse de sensibilité pour identifier les entrées importantes, la méta-modélisation pour reproduire le comportement du modèle coûteux en calcul par un modèle peu coûteux à exécuter, et des modèles stochastiques efficaces pour l’exploration de l’espace d’états du système.
En parallèle, le développement des mesures physiques par des capteurs installés sur les composants et les systèmes, fournit des informations sur l’évolution des processus de dégradation et sur l’état de santé des composants et des systèmes. Ces données peuvent être utilisées pour mettre à jour les valeurs de probabilité de défaillance utilisées dans l’évaluation des risques4. Ainsi, les données de surveillance peuvent compléter les données statistiques de défaillance dans le cadre d’une évaluation des risques basée sur l’état du système5.
Les données de surveillance peuvent compléter les données statistiques de défaillance dans le cadre d’une évaluation des risques basée sur l’état du système.
Une discipline fiable en mutation
En conclusion, l’évaluation des risques est une discipline mature, largement utilisée pour la conception et l’exploitation de systèmes sécurisés. Cette évaluation implique une analyse structurée du système étudié afin de décrire qualitativement et quantitativement le risque, sur la base des connaissances disponibles. En quantifiant les incertitudes et en identifiant les contributeurs au risque, l’évaluation des risques contribue à la compréhension de celui-ci et fournit des informations utiles à sa régulation et à sa gestion. Elle offre ainsi des arguments pour une prise de décision rationnelle et doit pouvoir être examinée de manière critique, car elle repose sur les connaissances disponibles et les hypothèses de modélisation formulées pour formaliser l’évaluation.
Dans cette perspective, l’augmentation des capacités de modélisation et de calcul, ainsi que la disponibilité des données de surveillance d’état, ouvrent la voie à l’amélioration de l’évaluation des risques. Cela concerne particulièrement l’utilisation de la simulation pour l’identification et l’exploration de scénarios d’accidents, ainsi que le recours aux données de surveillance pour affiner l’évaluation des risques.
Pour tirer pleinement parti des avantages de la simulation, il est essentiel de faire confiance aux techniques rapides d’intelligence artificielle, telles que les méta-modèles ou modèles de substitution, en veillant à leur utilisation contrôlée et vérifiée dans le cadre de l’évaluation des risques. Cela implique un traitement adéquat des erreurs d’approximation et des incertitudes supplémentaires introduites.
En ce qui concerne les données de surveillance des capteurs, il existe une opportunité de développer une évaluation des risques basée sur l’état réel des composants et des systèmes, en intégrant ces informations dans le processus.
Comme toujours depuis son apparition, la gestion des risques doit et devra continuer à évoluer pour répondre et s’adapter aux futurs défis en matière de sécurité.