Introduction
Le datacenter moderne n'est plus le même qu'il y a cinq ans. Avec l'explosion des charges de travail liées à l'intelligence artificielle, les densités de puissance par rack ont franchi des seuils inédits — jusqu'à 120 kW, voire 140 kW pour les dernières architectures NVIDIA GB200 — rendant le refroidissement par air totalement obsolète pour les infrastructures IA. En 2026, 76 % des serveurs IA sont désormais refroidis par liquide selon les projections de Goldman Sachs, contre seulement 15 % en 2024. Le marché mondial du refroidissement liquide pour datacenters atteint 5,58 milliards de dollars cette année, avec un taux de croissance annuel composé (TCAC) de 18,61 % jusqu'en 2035.
Ce guide en 7 étapes vous accompagne pas à pas dans le déploiement d'une solution de refroidissement liquide adaptée aux réalités de 2026, que vous partiez d'une infrastructure existante ou d'un projet greenfield. Nous abordons les aspects techniques, économiques et réglementaires de cette transition incontournable.
Comprendre les enjeux thermiques des datacenters IA en 2026
Pourquoi l'air ne suffit plus
Le refroidissement par air, longtemps hégémonique dans les salles machines, bute désormais sur un mur physique : il ne peut gérer que 15 à 25 kW par rack dans les meilleures conditions. Or, un rack d'entraînement IA équipé de GPU haute densité dépasse couramment les 100 kW. Cette inadéquation engendre un phénomène critique connu sous le nom de thermal throttling : le processeur réduit automatiquement ses performances pour éviter la surchauffe, annulant les investissements matériels réalisés.
Le refroidissement représente aujourd'hui 30 à 40 % de la facture électrique d'un datacenter traditionnel. Pour les infrastructures IA, ce pourcentage peut grimper encore davantage en l'absence d'une solution liquide optimisée. La transition vers le refroidissement liquide n'est donc pas un luxe : c'est une nécessité opérationnelle et économique. D'ailleurs, pour approfondir les stratégies d'efficacité énergétique globale, le Guide 2026 : réduire de 40 % la conso énergie d'un datacenter offre une approche complémentaire très utile.
Les trois familles de refroidissement liquide
Il existe aujourd'hui trois grandes approches de refroidissement liquide, chacune adaptée à des cas d'usage spécifiques :
- Direct-to-Chip (DLC) : des plaques froides sont appliquées directement sur les puces les plus chaudes (CPU, GPU). Cette méthode élimine 70 à 75 % de la chaleur produite par les composants IT et permet d'atteindre des PUE de 1,2 à 1,4.
- Immersion monophasique : les serveurs sont entièrement plongés dans un liquide diélectrique non conducteur. La chaleur est absorbée par le fluide sans changement d'état. PUE atteint : 1,05 à 1,15.
- Immersion biphasique : le fluide diélectrique se vaporise au contact des composants chauds, puis se recondense. Cette méthode offre l'efficacité thermique la plus élevée (jusqu'à 1 000 fois supérieure à l'air) pour des densités de rack de 100 à 361 kW.
- Rear-door heat exchangers (RDHx) : portes arrière de rack équipées d'échangeurs thermiques. Solution hybride idéale pour les rénovations progressives.
- Systèmes hybrides air/liquide : combinaison d'air pour les équipements standards (10-20 kW) et de liquide pour les racks IA/HPC haute densité.
Tableau comparatif des technologies de refroidissement liquide
Avant de choisir votre architecture, voici une synthèse des paramètres clés pour orienter votre décision :
| Critère | Direct-to-Chip (DLC) | Immersion monophasique | Immersion biphasique | Refroidissement air (référence) |
|---|---|---|---|---|
| PUE typique 2026 | 1,2 – 1,4 | 1,05 – 1,15 | 1,03 – 1,10 | 1,6 – 2,0 |
| Densité max (kW/rack) | 50 – 100 kW | 100 – 200 kW | 200 – 361 kW | 15 – 25 kW |
| Économies d'énergie vs air | 40 – 50 % | 30 – 50 % | 50 – 60 % | – |
| Consommation d'eau | Modérée | Quasi nulle | Nulle | Élevée |
| Compatibilité matériel standard | Excellente | Adaptations requises | Adaptations importantes | Native |
| Coût d'investissement initial | Modéré | Élevé | Très élevé | Faible |
| Idéal pour | IA, HPC, nouvelles infras | Hyperscalers, greenfield | Charges extrêmes, R&D | Serveurs standards <20 kW |
Sources : Precedence Research 2026, Goldman Sachs projections, Dell'Oro Group, Jetcool, Submer.
Les 7 étapes du déploiement d'un refroidissement liquide
Étape 1 – Audit thermique et cartographie des charges
Toute démarche sérieuse commence par un audit thermique complet de votre infrastructure. L'objectif est de cartographier précisément la puissance dissipée par rack, d'identifier les points chauds et de projeter les besoins futurs sur 3 à 5 ans.
Outils indispensables : capteurs de température embarqués, logiciels DCIM (Data Center Infrastructure Management), relevés de PDU (Power Distribution Unit) et modélisation CFD (Computational Fluid Dynamics). Cet audit déterminera quelle technologie — DLC, immersion ou hybride — correspond à votre situation et guidera le dimensionnement de la CDU (Cooling Distribution Unit).
Étape 2 – Choix de la technologie et architecture de la boucle
Sur la base de l'audit, sélectionnez la technologie adaptée à vos densités de rack actuelles et projetées. Pour des racks entre 40 et 100 kW (cas le plus fréquent en 2026 dans les datacenters IA de taille intermédiaire), le Direct-to-Chip constitue le meilleur rapport performance/investissement. Au-delà de 100 kW, l'immersion s'impose.
Définissez ensuite l'architecture hydraulique : boucle primaire (fluide caloporteur entre serveurs et CDU) et boucle secondaire (rejet de chaleur vers l'extérieur via un refroidisseur ou une tour de refroidissement). Prévoyez un système de free-cooling pour exploiter les températures extérieures basses en hiver, réduisant encore la consommation électrique.
Étape 3 – Infrastructure hydraulique et génie civil
Cette étape est souvent sous-estimée lors des projets de rénovation. Elle comprend :
- Le tracé et la pose des canalisations (alliage cuivre ou acier inox selon le fluide choisi) dans les faux-planchers ou les chemins de câbles en hauteur.
- L'installation de bacs de rétention sous chaque point de raccordement pour contenir d'éventuelles fuites.
- La mise en place de vannes d'isolement permettant d'intervenir rack par rack sans arrêter l'ensemble du système.
- Le respect des normes parasismiques et de résistance à la pression (typiquement 6 à 10 bars pour les installations DLC).
- La validation des charges au sol, notamment pour l'immersion où les cuves remplies de fluide diélectrique sont très lourdes.
En France, ce chantier est soumis à la réglementation sur les installations classées pour la protection de l'environnement (ICPE) ainsi qu'aux nouvelles dispositions issues de la loi sénatoriale sur les datacenters. Pour en savoir plus sur ce cadre législatif, consultez notre analyse : Le Sénat adopte la loi sur les datacenters : procédures accélérées, label "intérêt national majeur" et exigences énergétiques.
Étape 4 – Installation et configuration de la CDU
La Cooling Distribution Unit (CDU) est le cœur du système. Elle assure le contrôle du débit, la régulation de la température du fluide et la filtration des particules. En 2026, les CDU de nouvelle génération intègrent :
- Une régulation automatique via capteurs IoT et IA prédictive pour anticiper les pics thermiques.
- Des échangeurs liquide-liquide haute performance permettant de séparer le circuit interne du réseau d'eau du bâtiment.
- Un monitoring en temps réel accessible depuis les plateformes DCIM centralisées.
- Des modules redondants (N+1) pour garantir la disponibilité de Tier III ou Tier IV.
La CDU peut être installée en rack, en rangée ou en périmètre de salle selon la topologie choisie. Pour les projets de grande envergure, comme celui porté par Mistral AI en Essonne — un méga-datacenter IA prévu pour juin 2026 avec 13 800 puces Nvidia et 44 MW de puissance — les CDU sont déployées en clusters dédiés à chaque îlot de serveurs GPU.
Étape 5 – Intégration rack par rack et mise sous fluide
Le déploiement physique s'effectue idéalement de manière incrémentale, rack par rack ou rangée par rangée, afin de minimiser les interruptions de service. Pour le DLC, cette étape consiste à fixer les plaques froides sur les CPU et GPU, à raccorder les quick-connects (connecteurs à déconnexion rapide sans fuite) et à purger l'air du circuit.
Pour l'immersion, les serveurs sont préalablement préparés en atelier : retrait des ventilateurs internes (inutiles dans le bain), vérification de la compatibilité des composants avec le fluide diélectrique (certains condensateurs et adhésifs peuvent être dégradés), puis immersion progressive dans la cuve avec montée en température contrôlée.
Étape 6 – Tests, mise en service et qualification
Avant toute mise en production, une phase de commissioning rigoureuse est indispensable :
- Test d'étanchéité à pression nominale pendant minimum 24 heures.
- Simulation de charge thermique maximale pour valider le comportement du système en conditions extrêmes.
- Vérification de la qualité chimique du fluide caloporteur (pH, conductivité, absence de bactéries).
- Calibration des alarmes et seuils d'alerte dans le système de monitoring.
- Test des procédures d'urgence : coupure manuelle, vidange d'urgence, basculement sur refroidissement de secours.
Les résultats de cette phase alimentent le rapport de qualification, document contractuel exigé par les assureurs et souvent requis pour l'obtention du label "intérêt national majeur" instauré par la loi française sur les datacenters.
Étape 7 – Maintenance préventive et optimisation continue
La pérennité d'un système de refroidissement liquide repose sur un programme de maintenance préventive structuré :
- Quotidien : surveillance automatisée via DCIM, vérification des températures de sortie fluide et des débits.
- Mensuel : contrôle visuel des raccords, analyse des données de performance, mise à jour des algorithmes prédictifs.
- Semestriel : analyse chimique du fluide caloporteur, nettoyage des filtres de la CDU, vérification des joints d'étanchéité.
- Annuel : remplacement préventif des pompes selon le retour d'expérience fabricant, audit complet de l'installation.
L'optimisation continue passe également par la valorisation de la chaleur fatale : la chaleur récupérée à 40-60°C en sortie de circuit DLC peut être réinjectée dans un réseau de chaleur urbain ou utilisée pour le chauffage des locaux, améliorant encore le bilan carbone global du datacenter.
Impact environnemental et réglementaire en France
Les gains énergétiques mesurables
Le passage au refroidissement liquide produit des résultats concrets et mesurables. Un datacenter ayant migré de l'air vers le DLC constate en moyenne :
- Une réduction de 40 à 50 % de la consommation énergétique liée au refroidissement.
- Une baisse du PUE de 1,7 à 1,2, soit une économie significative sur la facture électrique annuelle.
- Une réduction de 91 % de la consommation d'eau pour les solutions d'immersion (zéro évaporation), comparée aux tours de refroidissement évaporatif traditionnelles.
- Une augmentation de la durée de vie des composants grâce à une température de fonctionnement plus stable et plus basse.
Ces gains s'inscrivent parfaitement dans la dynamique nationale : la région Île-de-France, qui concentre désormais 582 MW installés et s'affirme comme le 3e hub européen des datacenters en 2026, fait du refroidissement liquide un critère d'évaluation des nouveaux projets.
Le cadre réglementaire français 2026
La France a franchi un cap législatif majeur avec l'adoption de la loi encadrant l'implantation des datacenters. Les opérateurs doivent désormais justifier de leurs performances énergétiques, notamment via l'indicateur WUE (Water Usage Effectiveness) et le PUE, pour accéder aux procédures accélérées de permis de construire. Pour une analyse complète des implications de cette loi, voir : Le Sénat français adopte une loi pour encadrer l'implantation des datacenters sur le territoire.
Les entreprises qui investissent dès maintenant dans le refroidissement liquide se positionnent favorablement pour obtenir le label "intérêt national majeur" qui débloque des avantages fiscaux et des délais d'instruction réduits.
FAQ
Quel est le coût moyen d'une installation de refroidissement liquide en 2026 ?
Le coût d'une installation de refroidissement liquide varie considérablement selon la technologie et la taille du projet. En 2026, il faut compter en moyenne entre 15 000 et 25 000 euros par rack pour une solution Direct-to-Chip complète (plaques froides, CDU, tuyauterie), et entre 30 000 et 60 000 euros par rack pour une solution d'immersion. Ces coûts initiaux élevés sont compensés par les économies d'énergie réalisées : le retour sur investissement (ROI) est généralement atteint en 2 à 4 ans pour des racks dépassant 40 kW, grâce à des économies de 40 à 50 % sur la facture de refroidissement.
Le refroidissement liquide est-il compatible avec les serveurs standards du marché ?
La compatibilité dépend de la technologie choisie. Pour le Direct-to-Chip, la plupart des grands constructeurs (Dell, HPE, Lenovo, Supermicro) proposent en 2026 des serveurs "liquid-ready" livrés avec des points de raccordement intégrés. Les plaques froides peuvent également être rétrofitées sur des serveurs existants. Pour l'immersion, les adaptations sont plus importantes : il faut retirer les ventilateurs internes et vérifier la compatibilité chimique des composants avec le fluide diélectrique. Certains constructeurs, comme Nvidia pour ses modules GB200, livrent désormais leurs systèmes avec support natif du refroidissement liquide.
Quelle différence entre le PUE et le WUE pour évaluer l'efficacité d'un datacenter liquide ?
Le PUE (Power Usage Effectiveness) mesure le ratio entre l'énergie totale consommée par le datacenter et l'énergie consommée par les seuls équipements IT. Un PUE de 1,0 serait parfait, mais en pratique les meilleures installations d'immersion atteignent 1,03 à 1,10 en 2026. Le WUE (Water Usage Effectiveness) mesure, lui, la consommation d'eau par unité d'énergie IT (en litres par kWh). Il est particulièrement pertinent pour les solutions liquides : là où un datacenter traditionnel avec tours évaporatives peut afficher un WUE de 1,5 à 2,0 L/kWh, une solution d'immersion diélectrique atteint un WUE quasi nul. Les deux métriques sont désormais exigées dans le cadre réglementaire français 2026.
Comment gérer les risques de fuite dans un datacenter avec refroidissement liquide ?
La gestion du risque de fuite est au cœur de toute installation professionnelle. Les bonnes pratiques 2026 incluent l'utilisation de raccords quick-connect certifiés "zéro fuite" sur chaque serveur, l'installation de détecteurs de fuite linéaires sous les chemins de canalisations, la mise en place de bacs de rétention sous chaque zone de raccordement, et le cloisonnement hydraulique par vannes d'isolement permettant d'isoler un rack défaillant en moins d'une seconde sans impacter le reste de l'installation. Les systèmes DLC modernes fonctionnent à des pressions modérées (2 à 6 bars) réduisant le risque de projection en cas de défaillance. La redondance des pompes (N+1) garantit la continuité même lors d'une intervention de maintenance.
Le refroidissement liquide est-il adapté aux petits datacenters ou edge datacenters ?
Oui, et c'est même une tendance forte de 2026. Des solutions compactes de DLC en rack autonome sont désormais disponibles pour des installations edge à partir de 5 à 10 racks. Ces systèmes "plug-and-play" intègrent la CDU, les canalisations et le circuit de rejet thermique dans une unité préfabriquée, déployable en quelques jours. L'edge computing IA, qui nécessite des GPU haute densité au plus près des utilisateurs, est l'un des segments à la croissance la plus rapide pour le refroidissement liquide. Les densités de 40 à 60 kW par rack constatées dans les nœuds edge de 2026 rendent le refroidissement liquide pertinent même hors des grands hyperscalers.
Conclusion
Le refroidissement liquide n'est plus une technologie de niche réservée aux supercalculateurs : en 2026, il est devenu le standard de facto pour tout datacenter hébergeant des charges de travail IA. Les 7 étapes détaillées dans ce guide — de l'audit thermique initial jusqu'à la maintenance continue — offrent une feuille de route concrète pour réussir cette transition, qu'il s'agisse d'une rénovation de salle existante ou d'un projet greenfield.
Les bénéfices sont multiples et mesurables : réduction de 40 à 50 % de la consommation énergétique liée au refroidissement, PUE descendant à 1,03 pour les meilleures installations d'immersion, consommation d'eau quasi nulle, et durée de vie accrue des équipements. Ces avantages s'accompagnent désormais d'un cadre réglementaire français incitatif, qui récompense les opérateurs vertueux par des procédures administratives accélérées.
Les acteurs qui tardent à opérer cette mutation risquent de se retrouver face à un double défi : des serveurs GPU bridés thermiquement, donc sous-performants, et une conformité réglementaire de plus en plus difficile à atteindre avec des installations air traditionnelles. Pour aller plus loin dans l'optimisation globale de votre datacenter IA, notre guide Datacenter IA 2026 : réduire sa conso énergie de 40 % vous apportera des leviers complémentaires sur l'alimentation, la gestion de l'énergie et l'optimisation des charges de travail.