Data Centers : quelle équation énergétique ?
Club Mines Energie
Par Hélène Giouse (P81 et DOCT. P87)
Le 9 décembre 2025, l’École des Mines de Paris a accueilli une conférence organisée par le Club Mines Énergie sur les data centers et à laquelle le club Mines Digital était convié, réunissant plus de 35 personnes. L’objectif était d’examiner ces installations industrielles et numériques, aujourd’hui au cœur de nombreux débats, sous l’angle énergétique : consommation, usage et possibilités de récupération de l’énergie.

Une consommation électrique en forte croissance

 

Bien que la plupart de nos données soient stockées à l’étranger (USA notamment), la France comptait déjà 300 centres de données en 2022, consommant environ 10 TWh par an1 (soit environ 2 % de la production électricité française). En 2025, ce chiffre est passé à 333 centres pour une consommation totale de 15 TWh/an. De nombreux nouveaux projets sont ainsi lancés en France, favorisés par l’ambition nationale en IA et la disponibilité d’une électricité décarbonée.

Selon le récent rapport du Shift Project, l’IA est le principal moteur du développement des data centers. La consommation mondiale pourrait bondir de 460 TWh en 2022 à 2 250 TWh/an en 2035, voire 3 000 TWh/an si les cryptomonnaies se développent fortement.

Pour la France, RTE prévoyait une consommation de 23 à 28 TWh/an en 2035 (soit environ 4 % de la consommation électrique française à cet horizon). Toutefois, l’étude du Shift Project estime que, sur la base des annonces faites lors du sommet de l’IA, ce chiffre pourrait atteindre 45 TWh/an, soit 7,5 % de l’électricité consommée en France à la même date.

Maxime Efoui-Hess, coordonnateur des programmes “Numérique” et “Industrie & Matières” au Shift Project, a contribué à la préparation de cette conférence mais n’a malheureusement pas pu y participer. Son étude est consultable en ligne – Intelligence artificielle, données, calculs : le rapport final du Shift (https://bit.ly/3Lo9rdr) 

 

Une production de chaleur de plus en plus intense à évacuer

 

Jean-Christophe Leonard, ingénieur de l’Institut Supérieur Fluides, Énergie, Réseaux et Environnement de Mines Paris, Chercheur expert au sein de la direction R&D d’EDF, a situé l’importance de la production de chaleur par effet Joule au niveau des puces et des racks de serveurs qui constituent les data centers.

Les dimensions moyennes d’un rack sont de 0,6m x 1,2m au sol, avec une hauteur voisine de 2 mètres. Sa consommation moyenne est passée de 10-12 kW en 2020 à plus de 15 kW aujourd’hui, et continue d’augmenter avec l’évolution technologique. Au-delà de 50 kW/rack, le refroidissement par air ne suffit plus à protéger les composants de la chaleur. Il faut alors passer au “liquid cooling” (refroidissement par liquide), soit par un circuit interne aux racks, soit par immersion des serveurs dans un liquide diélectrique, généralement une huile minérale. Le choix de l’huile reste délicat. Les premières huiles utilisées dissolvaient les plastifiants du PVC présents dans les câbles et autres composants, un problème aujourd’hui résolu. Subsiste toutefois la difficulté de manipuler les serveurs lors des interventions : il faut les sortir du bain et notamment en retirer les couches minces ou les traces d’huile, ce qui augmente les coûts de maintenance. Pour des consommations dépassant 100 kW/rack, que l’on peut anticiper à l’avenir, une nouvelle technologie est en développement : l’immersion avec changement de phase, où un liquide caloporteur entre en ébullition au sein même du serveur.

L’efficacité énergétique des data centers est mesurée par le PUE (power unit effectiveness), un indicateur normalisé qui rapporte l’énergie totale consommée à celle utilisée uniquement par les équipements informatiques. Ce ratio dépend principalement de la qualité du transfert de chaleur avec le fluide de refroidissement et de la performance des machines réfrigérantes. En France, le PUE moyen s’établit à 1,6.

Les opérateurs mettent en avant l’amélioration de ce ratio pour démontrer leurs efforts. Toutefois, cette progression ne doit pas masquer l’augmentation considérable de la consommation électrique globale.

Dans les centres classiques, la chaleur est simplement dissipée dans l’atmosphère, sans récupération possible. Les installations récentes permettent en revanche de récupérer cette chaleur via un circuit d’eau qui ressort à une température voisine de 30°C.

Datadome
Cyril FRESILLON IDRIS CNRS Images. Quatrième extension du supercalculateur Jean Zay. Derrière les racks de calcul (baies floquées), on voit les baies de stockage et le cœur de réseau. Acquis en 2019 par le Grand équipement national de calcul intensif (Genci), le supercalculateur est nommé en l'honneur de Jean Zay, homme politique et artisan de la création du CNRS. L'extension de 2024 conçue par Eviden, composée de 14 racks de calcul BullSequana XH3000, augmente sa puissance de calcul à 125,9 pétaflops (plus de 125 millions de milliards d’opérations par seconde). Il permet aux communautés de recherche académiques et industrielles nationales de réaliser des simulations numériques par calcul haute performance et d'entraîner ou de spécialiser des modèles d’intelligence artificielle générative. C'est l'une des machines les plus éco-efficientes en Europe, grâce aux technologies accélérées (GPU) et à un refroidissement des serveurs de calcul par eau chaude à cœur. La chaleur fatale est en outre réutilisée pour contribuer au chauffage de logements sur le plateau de Saclay. Le supercalculateur Jean Zay est hébergé et opéré par le CNRS, via l'Institut du développement et des ressources en informatique scientifique (Idris). UAR851 Institut du Développement et des Ressources en Informatique Scientifique 20250008_0004

Une grande difficulté de récupération de la chaleur fatale

 

Différents cas pratiques ont été présentés. Un exemple classique de récupération de chaleur est celui d’une piscine située à proximité d’un data center, dont 95 % des besoins énergétiques (environ 3 GWh/an) sont ainsi couverts. L’eau sortant du centre à 55°C peut être utilisée directement par le centre nautique.

La meilleure situation, du point de vue thermique, suppose un écart inférieur à 70°C entre la source froide (sortie du data center) et la source chaude (besoin de l’utilisateur). Au-delà, il faut recourir à des pompes à chaleur (PAC) biétagées, nécessairement plus complexes et plus fragiles. Or les situations optimales sont rares : certains réseaux de chaleur fonctionnent avec de l’eau très chaude, tandis que les systèmes de refroidissement des data centers ne sont pas toujours conçus pour maximiser la température de sortie.

Un cas exemplaire2 est celui du supercalculateur Jean Zay de l’IDRIS (Institut du Développement et des Ressources Informatiques Scientifiques), qui fournira 4 à 8 GWh/an au réseau de chaleur et de froid de Paris-Saclay. Ce démonstrateur européen de réseau de 5ᵉ génération fonctionne avec une eau circulant entre 20 et 30°C, chaque sous-station disposant d’une PAC réversible chaud/froid.

La récupération de chaleur n’est pas une priorité pour les opérateurs de data centers. Leurs critères de choix privilégient largement la proximité au réseau électrique (RTE pour les plus gros sites), l’accès au réseau de câbles de données numériques, le foncier disponible ainsi que le coût de l’électricité. Cette récupération ne constitue d’ailleurs pas une source de revenus significative : les opérateurs sont prêts à livrer la chaleur gratuitement en limite de propriété.

Selon une directive européenne et la loi REEN (Réduire l’Empreinte Environnementale du Numérique), qui accorde un tarif réduit d’électricité aux centres de données, toute nouvelle installation de plus de 1 MW doit faire l’objet d’une étude de récupération de chaleur. Toutefois, aucune obligation de mise en œuvre n’est imposée.

Les plus grosses installations observées en France récupèrent jusqu’à 10 GWh de chaleur par an. Une réalisation exceptionnelle existe au Danemark avec 80 GWh/an récupérés (data center de Meta à Odense).

Un concept intéressant émerge ; les “chaudières numériques”. Cela consiste à disperser des serveurs de quelques kW dans les immeubles pour assurer leur chauffage ou produire l’eau chaude sanitaire.

Datadome
Rafael MEDEIROS IDRIS CNRS. Tuyaux du système de refroidissement du supercalculateur Jean Zay, installé à Orsay, à l’Institut du développement et des ressources en informatique scientifique. L’EPA Paris-Saclay a signé, le 16 février 2021, une convention avec le CNRS visant à récupérer la chaleur fatale produite par ce supercalculateur, qui alimentera le réseau d’échange de chaleur et de froid du Campus urbain Paris-Saclay. UAR851 Institut du Développement et des Ressources en Informatique Scientifique 20210034_0004

Le défi du développement des réseaux de chaleur

 

Nicolas Daniel, directeur de la stratégie, du marketing et de la communication du Groupe Idex, a présenté la vision d’un opérateur engagé dans la décarbonation du chauffage des bâtiments via le développement des réseaux de chaleur. En France, 1 000 réseaux de chaleur distribuent actuellement environ 30 TWh/an, soit seulement 5 à 6 % de la chaleur consommée (600 TWh/an de consommation brute). Parmi cette chaleur distribuée, à peine 2,3 % proviennent de la chaleur fatale des data centers.

Pour atteindre les objectifs de la Stratégie Nationale Bas Carbone (SNBC), il faudrait construire 1 600 réseaux supplémentaires. L’ADEME priorise trois sources : d’abord la chaleur fatale, puis la géothermie, et enfin la biomasse.

Si les objectifs sont identifiés, leur mise en œuvre se heurte à de nombreuses contraintes technico-économiques : compatibilité entre la température de sortie du data center et les besoins des utilisateurs, le caractère rédhibitoire d’un seuil de distance maximale à environ un kilomètre entre la source et les consommateurs de chaleur.

 

Une équation pour conclure

 

AI = E : Comme l’a déclaré Sam Altman, dirigeant d’OpenAI, lors d’une audition au Congrès américain : “À terme, le coût de l’IA convergera vers le coût de l’énergie.”

Datadome
© Gene Twedt / Microsoft.

Les questions soulevées durant la session

 

Quelle consommation d’eau ? Elle peut devenir très importante si on utilise le refroidissement adiabatique. Il existe une relation empirique entre la consommation d’eau et la consommation électrique du centre de données. Aux USA elle est de 1 litre / kWh, ce qui peut devenir insupportable. En France, ce ratio est voisin de 0,2 litre/kWh.

Quelle sécurité électrique ? Les data centers utilisent batteries et groupes électrogènes de secours capables de reprendre toute l’alimentation. Ils sont classés ICPE (Installation Classée pour l’Environnement). Les sites critiques disposent de serveurs redondants, y compris sur un second site si possible assez proche, distant de 20 km au plus.

La récupération de chaleur : un élément d’attractivité ? Non, ce n’est pas un facteur décisif. L’accès à l’électricité et la disponibilité foncière priment. La France dispose d’un surplus d’électricité décarbonée, mais pâtit d’obstacles réglementaires. Deux tendances émergent : gros centres près des centrales nucléaires ou petits centres moins énergivores en raccordement sur le réseau électrique.

Quid du stockage géothermique de la chaleur ? Les températures de sortie des data centers sont trop faibles pour un stockage efficace dans le sol.

Pour approfondir ces sujets complexes, la conférence est disponible en replay.

1. Valeur confirmée le mardi 6 janvier 2026 par l’ADEME pour 2024
2. Les présentations des orateurs sont disponibles ici : https://bit.ly/49l6Fim
Hélène Giouse
Hélène Giouse (P81 et DOCT. P87)
Joël Henri
Joël Henri (N67)
7 vues
0 commentaires