IA, robots
et gestion des risques industriels
Par Loïck Briot (N13),
responsable du programme IA-Vision chez ArcelorMittal France
Le risque ne prévient pas. Du traitement de données à l’intervention sur site, l’IA et la robotique transforment la gestion des risques industriels : observer mieux, analyser plus vite, agir de façon ciblée. De la finance au haut fourneau, une même logique : maîtriser l’incertitude avant qu’elle ne devienne incident.

Un site industriel, ce n’est jamais un décor unique. Parfois, c’est un atelier chaud, bruyant, poussiéreux, porté par le rythme des machines et des interventions. Parfois, c’est l’inverse, une salle blanche où propreté et traçabilité comptent autant que la production, comme dans certaines usines pharmaceutiques. Agroalimentaire, énergie, logistique, électronique, industrie lourde ou environnements souterrains, les contextes varient, mais les mêmes questions reviennent : les personnes sont-elles en sécurité, les installations tiennent-elles, le procédé reste-t-il stable, et ce qui fonctionne aujourd’hui peut-il dériver demain ?

C’est là que la gestion des risques commence, bien avant l’incident. L’objectif est de réduire les angles morts, détecter des signaux faibles, prioriser, et raccourcir le délai entre observation et correction. L’IA et la robotique ne sont pas une finalité, mais des briques dans une chaîne concrète : rendre le site observable, transmettre l’information, construire une mémoire exploitable, analyser, décider du niveau d’automatisation, puis agir sans créer de risque supplémentaire.

 

L’incertitude : pierre angulaire de la gestion des risques

 

Cette trajectoire, je l’ai rencontrée au Luxembourg entre 2016 et 2021, en tant que CTO de Tetrao, une start-up développant des robots logiciels pour la finance, la fonction de ces robots étant de collecter et structurer des informations publiées par des Asset Managers. À l’époque, on parlait surtout de Robotic Process Automation (RPA), mais l’idée était déjà là, avec des volumes pouvant atteindre plusieurs centaines de milliers de documents par jour. L’enjeu consistait à récupérer des mises à jour sur des sites web, mais aussi dans des documents hétérogènes : DICI (Document d’Information Clé pour l’Investisseur), fact sheets, prospectus, en PDF ou autres formats, puis à relier ces sources entre elles. Il fallait ensuite consolider les données tout en garantissant une continuité de service avec supervision et métriques, bien au-delà d’une simple automatisation ponctuelle.

Le vrai sujet, ce n’était pas d’extraire une page, c’était de maîtriser l’incertitude. La donnée changeait de format et de parcours sans prévenir, du HTML au PDF, du Word à l’image scannée, parfois derrière une interface dynamique, une authentification ou une navigation non standard. Cette variabilité était la norme, et chaque micro-changement pouvait casser une automatisation. On a donc appris à traiter la casse comme un risque de production, avec une boucle simple : détecter, diagnostiquer, rétablir, puis renforcer. Selon l’urgence, cela passait par un correctif rapide, parfois avec une part manuelle ou d’annotation ponctuelle, puis par une consolidation de fond, via des règles, des traitements dédiés ou des modèles, pour encaisser les variations futures.

Quand on revient sur un site industriel, la logique est identique, mais elle se déploie dans le monde physique. Le premier acte reste l’observation. Dans une usine, l’information est partout, mais rarement là où on la veut : capteurs process (pression, température, vibrations, courants, gaz, débits), vision (caméras fixes, motorisées, parfois thermiques), journaux d’événements (automates, supervision, informatique, maintenance, cybersécurité), documents (procédures, permis, rapports, retours d’expérience) et, surtout, l’humain, qui repère souvent les signaux faibles avant les capteurs. C’est aussi ici que la robotique entre en scène de façon pragmatique. Dans beaucoup de projets, un robot n’est pas un acteur qui intervient. C’est un capteur mobile. Il complète les capteurs fixes, va là où l’on ne peut pas mettre une caméra en permanence, fait une ronde, lève un doute, collecte une mesure. Au TechLab de Mines Nancy, plateforme de recherche appliquée et de démonstration où j’ai travaillé de 2022 à 2025, l’objectif était justement d’expérimenter cette combinaison entre capteurs, réseaux et robotique avec des partenaires industriels, pour tester des cas d’usage et mesurer les changements induits dans une boucle de sécurité ou d’exploitation.

Dans ce cadre, j’ai travaillé avec l’ANDRA (Agence Nationale pour la gestion des Déchets Radioactifs) sur des environnements particulièrement contraints, notamment en souterrain, où la réduction de l’exposition et l’instrumentation fine des installations sont des objectifs structurants. Dans le laboratoire souterrain de Bure, un robot quadrupède de type “Spot” a été utilisé comme plateforme d’expérimentation. L’idée est simple : disposer d’un rondier instrumenté capable de se déplacer, collecter des données, remonter des images, faire des relevés ponctuels, là où l’on veut limiter les interventions humaines ou améliorer la couverture de mesure. C’est aussi une façon d’éprouver des points très concrets : naviguer sans GPS, valider la robustesse des capteurs, et maintenir un flux d’information réellement exploitable malgré les contraintes du terrain.

Cependant, cette observation n’a de valeur que si l’information circule. Dans l’industrie, la connectivité est un maillon critique : filaire quand on peut pour sa stabilité, Wi-Fi quand le contexte le permet, et réseaux cellulaires 4G ou 5G, publics ou privés, dès qu’il faut couvrir des zones complexes, embarquer des capteurs, remonter de la vidéo de façon fiable ou téléopérer un robot. C’est ce que j’ai exploré avec Nokia autour de la 5G industrielle, lorsque la latence, la fiabilité et la séparation des flux deviennent des contraintes de sécurité autant que techniques.

On retrouve alors une règle simple : le mode dégradé est souvent la norme. Une zone mal couverte, une interférence, un équipement qui tombe, et l’information disparaît partiellement. Si la chaîne n’a pas été pensée pour encaisser ces ruptures, elle devient inutile au pire moment. Il faut donc prévoir du stockage local, des remontées différées, des priorités claires et une dégradation progressive, pour rester utile même quand tout n’est pas parfait.

Une fois l’information collectée et transmise, elle doit être conservée, organisée et rendue exploitable. C’est un point moins visible, et pourtant central. En gestion des risques, la mémoire compte. Il faut pouvoir relier un événement à son contexte, à ses preuves et aux actions prises. Sans horodatage fiable, sans indexation, sans gouvernance, on accumule de la donnée, mais on ne gagne pas en maîtrise.

Le reste de ce contenu est réservé aux abonnés...

Pour vous abonner, rendez-vous sur le site de votre association partenaire ou cliquer ici.