IA, robots
et gestion des risques industriels
Par Loïck Briot (N13),
responsable du programme IA-Vision chez ArcelorMittal France
Le risque ne prévient pas. Du traitement de données à l’intervention sur site, l’IA et la robotique transforment la gestion des risques industriels : observer mieux, analyser plus vite, agir de façon ciblée. De la finance au haut fourneau, une même logique : maîtriser l’incertitude avant qu’elle ne devienne incident.

Un site industriel, ce n’est jamais un décor unique. Parfois, c’est un atelier chaud, bruyant, poussiéreux, porté par le rythme des machines et des interventions. Parfois, c’est l’inverse, une salle blanche où propreté et traçabilité comptent autant que la production, comme dans certaines usines pharmaceutiques. Agroalimentaire, énergie, logistique, électronique, industrie lourde ou environnements souterrains, les contextes varient, mais les mêmes questions reviennent : les personnes sont-elles en sécurité, les installations tiennent-elles, le procédé reste-t-il stable, et ce qui fonctionne aujourd’hui peut-il dériver demain ?

C’est là que la gestion des risques commence, bien avant l’incident. L’objectif est de réduire les angles morts, détecter des signaux faibles, prioriser, et raccourcir le délai entre observation et correction. L’IA et la robotique ne sont pas une finalité, mais des briques dans une chaîne concrète : rendre le site observable, transmettre l’information, construire une mémoire exploitable, analyser, décider du niveau d’automatisation, puis agir sans créer de risque supplémentaire.

 

L’incertitude : pierre angulaire de la gestion des risques

 

Cette trajectoire, je l’ai rencontrée au Luxembourg entre 2016 et 2021, en tant que CTO de Tetrao, une start-up développant des robots logiciels pour la finance, la fonction de ces robots étant de collecter et structurer des informations publiées par des Asset Managers. À l’époque, on parlait surtout de Robotic Process Automation (RPA), mais l’idée était déjà là, avec des volumes pouvant atteindre plusieurs centaines de milliers de documents par jour. L’enjeu consistait à récupérer des mises à jour sur des sites web, mais aussi dans des documents hétérogènes : DICI (Document d’Information Clé pour l’Investisseur), fact sheets, prospectus, en PDF ou autres formats, puis à relier ces sources entre elles. Il fallait ensuite consolider les données tout en garantissant une continuité de service avec supervision et métriques, bien au-delà d’une simple automatisation ponctuelle.

Le vrai sujet, ce n’était pas d’extraire une page, c’était de maîtriser l’incertitude. La donnée changeait de format et de parcours sans prévenir, du HTML au PDF, du Word à l’image scannée, parfois derrière une interface dynamique, une authentification ou une navigation non standard. Cette variabilité était la norme, et chaque micro-changement pouvait casser une automatisation. On a donc appris à traiter la casse comme un risque de production, avec une boucle simple : détecter, diagnostiquer, rétablir, puis renforcer. Selon l’urgence, cela passait par un correctif rapide, parfois avec une part manuelle ou d’annotation ponctuelle, puis par une consolidation de fond, via des règles, des traitements dédiés ou des modèles, pour encaisser les variations futures.

Quand on revient sur un site industriel, la logique est identique, mais elle se déploie dans le monde physique. Le premier acte reste l’observation. Dans une usine, l’information est partout, mais rarement là où on la veut : capteurs process (pression, température, vibrations, courants, gaz, débits), vision (caméras fixes, motorisées, parfois thermiques), journaux d’événements (automates, supervision, informatique, maintenance, cybersécurité), documents (procédures, permis, rapports, retours d’expérience) et, surtout, l’humain, qui repère souvent les signaux faibles avant les capteurs. C’est aussi ici que la robotique entre en scène de façon pragmatique. Dans beaucoup de projets, un robot n’est pas un acteur qui intervient. C’est un capteur mobile. Il complète les capteurs fixes, va là où l’on ne peut pas mettre une caméra en permanence, fait une ronde, lève un doute, collecte une mesure. Au TechLab de Mines Nancy, plateforme de recherche appliquée et de démonstration où j’ai travaillé de 2022 à 2025, l’objectif était justement d’expérimenter cette combinaison entre capteurs, réseaux et robotique avec des partenaires industriels, pour tester des cas d’usage et mesurer les changements induits dans une boucle de sécurité ou d’exploitation.

Dans ce cadre, j’ai travaillé avec l’ANDRA (Agence Nationale pour la gestion des Déchets Radioactifs) sur des environnements particulièrement contraints, notamment en souterrain, où la réduction de l’exposition et l’instrumentation fine des installations sont des objectifs structurants. Dans le laboratoire souterrain de Bure, un robot quadrupède de type “Spot” a été utilisé comme plateforme d’expérimentation. L’idée est simple : disposer d’un rondier instrumenté capable de se déplacer, collecter des données, remonter des images, faire des relevés ponctuels, là où l’on veut limiter les interventions humaines ou améliorer la couverture de mesure. C’est aussi une façon d’éprouver des points très concrets : naviguer sans GPS, valider la robustesse des capteurs, et maintenir un flux d’information réellement exploitable malgré les contraintes du terrain.

Cependant, cette observation n’a de valeur que si l’information circule. Dans l’industrie, la connectivité est un maillon critique : filaire quand on peut pour sa stabilité, Wi-Fi quand le contexte le permet, et réseaux cellulaires 4G ou 5G, publics ou privés, dès qu’il faut couvrir des zones complexes, embarquer des capteurs, remonter de la vidéo de façon fiable ou téléopérer un robot. C’est ce que j’ai exploré avec Nokia autour de la 5G industrielle, lorsque la latence, la fiabilité et la séparation des flux deviennent des contraintes de sécurité autant que techniques.

On retrouve alors une règle simple : le mode dégradé est souvent la norme. Une zone mal couverte, une interférence, un équipement qui tombe, et l’information disparaît partiellement. Si la chaîne n’a pas été pensée pour encaisser ces ruptures, elle devient inutile au pire moment. Il faut donc prévoir du stockage local, des remontées différées, des priorités claires et une dégradation progressive, pour rester utile même quand tout n’est pas parfait.

Une fois l’information collectée et transmise, elle doit être conservée, organisée et rendue exploitable. C’est un point moins visible, et pourtant central. En gestion des risques, la mémoire compte. Il faut pouvoir relier un événement à son contexte, à ses preuves et aux actions prises. Sans horodatage fiable, sans indexation, sans gouvernance, on accumule de la donnée, mais on ne gagne pas en maîtrise.

Datadome
Sur le train à bandes de Fos-sur-Mer, deux lasers et sept caméras équipés d’IA détectent depuis 2024 les défauts de l’acier en bobines : langues de chat, queues de poissons, téléscopes ou vélodromes, ces anomalies aux noms imagés que les opérateurs peuvent désormais corriger au plus tôt.

L’IA comme vecteur de la fiabilité

 

C’est seulement après cela que l’on peut parler d’analyse et de compréhension. Les règles simples et explicables restent une base solide, notamment pour tout ce qui doit être auditable et prédictible. Les approches statistiques et le “machine learning” classique complètent bien cette base pour détecter des dérives, corréler des signaux et réduire le bruit. Mais ce qui change réellement la donne depuis peu, ce sont les modèles fondation, grands modèles de langage (connus sous leur acronyme anglais LLM) et les modèles de vision généralistes. Ces modèles représentent une rupture en matière de généralisation et de multimodalité. Construits sur des volumes de données massifs, ils sont capables de comprendre et de traiter une grande diversité de types d’informations (texte, image, audio, etc.) et d’accomplir des tâches variées sans nécessiter un entraînement initial intensif et spécifique. Leur principal atout réside dans leur capacité à s’adapter à de nouveaux cas d’usage par de simples instructions (prompts) et un minimum de spécialisation. Ainsi, entraînés sur des volumes massifs, ils gagnent en capacité d’adaptation et réduisent souvent le besoin de réentraîner un modèle en interne dès le départ. On peut cadrer l’usage, tester sur le terrain, travailler les prompts, définir des règles de validation et itérer, sans lancer immédiatement une collecte et une annotation lourdes, ce qui est crucial dès que les événements à détecter sont rares, coûteux à observer, ou simplement indésirables à reproduire.

Les grands modèles de langage changent déjà la façon d’aborder l’analyse. Ils apportent une couche de compréhension et de mise en forme sur des données hétérogènes : texte, image, audio, vidéo, logs, rapports, procédures. Ils peuvent résumer un échange radio ou une réunion, extraire des actions, relier un événement à une procédure, comparer deux constats, et servir d’interface naturelle pour interroger un corpus technique sans tout reconfigurer. Couplés à des modèles spécialisés, ils permettent aussi de piloter des briques de perception avec des consignes compréhensibles, de produire des descriptions et des check lists, et d’industrialiser le tri et la priorisation sans recoder chaque cas.

Dans la même logique, les modèles de vision récents, comme SAM3, illustrent le saut de robustesse côté image et vidéo. SAM, pour “Segment Anything Model”, est un modèle de segmentation généraliste conçu pour isoler précisément un objet ou une zone d’intérêt dans une image. Guidé par un prompt, par exemple un texte décrivant ce que l’on cherche, il produit une segmentation exploitable pour mesurer, suivre sur vidéo, ou déclencher des traitements plus spécialisés. Le champ est large : personnes, animaux, zones anormales, fuites visibles, fissures, flammes ou fumée. Et avec des modèles multimodaux, on peut en plus décrire une scène, expliquer un avant après, qualifier une anomalie, ou aider à trier ce qui mérite une revue humaine. L’intérêt est évident quand la donnée est rare ou difficile à collecter. Ce n’est pas une panacée, et le coût calcul impose des choix d’architecture, mais l’équilibre est nouveau : on peut démarrer vite avec du pré-entraîné robuste, puis ne spécialiser que lorsqu’on sait exactement ce qu’il faut optimiser.

 

Des enjeux opérationnels et stratégiques ambitieux

 

La question devient ensuite celle de la décision : qui a l’autorité, qui porte la responsabilité, et jusqu’où l’automatisation est acceptable ? La progression la plus saine est graduelle, détecter et alerter, puis recommander, pour automatiser seulement des actions bornées, en réservant le traitement du phénomène critique à une validation humaine tracée. Le projet ARGOS, mené avec l’Armée de l’Air et de l’Espace et sur lequel j’ai travaillé entre 2022 et 2024, illustre cette logique. Il s’agissait d’un projet de surveillance périmétrique en lien avec Mines Nancy, où un robot quadrupède servait de capteur mobile pour patrouiller, observer et lever un doute sur une zone, puis remonter l’information vers les opérateurs. L’objectif n’était pas de prouver une autonomie totale, mais de tester l’intégration dans une organisation de sécurité existante, avec ses procédures et ses contraintes, et de cadrer clairement la frontière entre ce que la machine détecte ou suggère et ce que l’humain valide.

Enfin, on arrive à l’action, et c’est là que l’éventail devient le plus visible. La palette est large, du plus pragmatique au plus ambitieux. À une extrémité, on trouve l’action simple, répétable et immédiatement utile : déclencher une alerte ciblée avec des éléments de preuve, ouvrir un ticket de maintenance contextualisé, lancer une check-list adaptée, consigner un événement, mettre une zone en sécurité, basculer un système en mode sûr, ou envoyer un opérateur avec les bonnes informations. Dans beaucoup de cas, c’est déjà là que se gagne l’essentiel, en réduisant le délai entre observation et correction. En montant en complexité, l’action devient plus outillée : inspection assistée par vision, levée de doute accélérée, mesures déclenchées à la demande, contrôle à distance. La robotique s’insère alors naturellement, d’abord comme capteur mobile qui réduit l’exposition et améliore la preuve, puis comme moyen d’intervention en téléopération ou en autonomie partielle. Et tout au bout du spectre, les scénarios plus ambitieux de robots capables de manipuler restent un horizon, parce qu’ils posent encore des questions lourdes de fiabilité, de sûreté et de responsabilité. Mais cet horizon se rapproche vite : les progrès des modèles et des plateformes robotiques sont spectaculaires, et ce qui relevait hier de la démonstration devient rapidement testable en pilote, puis industrialisable. 

Au final, tout repose sur la capacité à faire tenir la chaîne de bout en bout, rendre le site observable, faire circuler l’information malgré les zones d’ombre, construire une mémoire exploitable, analyser sans confondre assistance et décision, puis déclencher des actions graduées. C’est précisément ce type de démarche transverse, à l’interface des métiers terrain et des briques technologiques, que je vais déployer chez ArcelorMittal France, côté IA et Vision Industrielle, en lien étroit avec les équipes terrain, l’IT et l’OT, les réseaux, la robotique, l’IoT ou la cybersécurité. 

Cette approche se matérialise sur l’ensemble de la chaîne de valeur (cokerie, haut fourneau, aciérie, laminage à chaud et à froid, galvanisation…) et s’illustre par des projets concrets et critiques. Le premier est la Sécurité des Personnes et des Installations, un enjeu d’autant plus critique que des incendies se sont déjà produits sur nos sites, occasionnant des arrêts longs et impactants. Pour y faire face, l’IA et la Vision Industrielle sont mises en place, notamment pour la détection précoce des risques et la sécurisation des zones dangereuses. Le second fil conducteur est la Qualité Produit et l’Optimisation Process, où l’IA et la Vision Industrielle sont employées pour l’inspection en continu et la détection automatique des défauts visuels sur le produit fini ou semi-fini, avec pour objectif d’analyser ces données et de les boucler directement vers le process pour une amélioration continue.

Loïck Briot
Loïck Briot (N13)
Spécialisé dans la conception d’Assistants Virtuels, Loïck a été CTO d’une start-up (2016-2021) à Luxembourg. De septembre 2021 à décembre 2025, il est responsable IA et Logiciel au TechLab Mines Nancy, où il encadre des projets étudiants en lien avec l’Industrie (IA, robotique, 5G…). Depuis janvier 2026, il travaille au sein de la DTD (Direction de la Transformation Digitale) et du DigitalLab de Florange, où il pilote le programme IA - Vision pour les différents sites d'ArcelorMittal France, de la roadmap au déploiement terrain, avec un focus sur la qualité produit et la sécurité.
8 vues
0 commentaires