Analyse de Joseph Alenchery, SVP & Business Head- Energy Next, Infosys. Les data centers représentent environ 1,5 % de la consommation énergétique mondiale, selon International Energy Agency. Avec l’explosion des volumes de données, leur utilisation devrait connaître une croissance exponentielle. Le marché des data centers, englobant les entreprises, les solutions de colocation et les hyperscalers, […]
Data center : l’efficacité énergétique au cœur de la révolution

Analyse de Joseph Alenchery, SVP & Business Head- Energy Next, Infosys.
Les data centers représentent environ 1,5 % de la consommation énergétique mondiale, selon International Energy Agency. Avec l’explosion des volumes de données, leur utilisation devrait connaître une croissance exponentielle. Le marché des data centers, englobant les entreprises, les solutions de colocation et les hyperscalers, est estimé à 741 milliards de dollars d’ici 2032. En parallèle, la transition vers l’edge computing engendre de nouvelles exigences en puissance de calcul, ce qui contribue à une augmentation significative de la consommation énergétique.
La consommation énergétique des data centers se décompose ainsi : environ 25 % est attribuée au traitement des données, tandis que 40 à 50 % de l’énergie est consacrée au refroidissement.
Par conséquent, toute démarche visant à améliorer la durabilité des data centers doit prioritairement s’attaquer à l’efficacité des systèmes de refroidissement et à l’optimisation des opérations.
Innovations en matière de refroidissement des data centers
Les méthodes traditionnelles de refroidissement, basées sur la circulation d’air froid, restent couramment utilisées dans de nombreux data centers obsolètes. Cependant, en raison de leur consommation élevée en eau (des millions de litres), la durabilité de ces solutions est de plus en plus remise en question.
Placer les circuits d’eau froide à proximité des serveurs améliore l’efficacité énergétique et réduit partiellement la consommation d’énergie.
Parmi les dernières innovations en matière de refroidissement figure la technique de refroidissement par immersion, où les processeurs sont immergés dans des systèmes de refroidissement liquide utilisant un fluide diélectrique de haute performance.
Shell par exemple a su tirer parti de son fluide de refroidissement par immersion, un fluide synthétique monophasé conçu pour maximiser l’efficacité énergétique et les performances des serveurs et composants informatiques. Bien que cette méthode nécessite un investissement initial, elle offre des économies d’énergie significatives et des avantages en matière de durabilité en réduisant l’utilisation d’air et d’eau. Elle permet également de résoudre les problèmes d’efficacité de refroidissement et de fuites qui affectent les data centers refroidis par air traditionnels. Shell a déjà déployé cette technologie de refroidissement par immersion dans ses data centers situés au Texas.

Un refroidissement efficace des processeurs dans les data centers nécessite une gestion rigoureuse de la température du fluide de refroidissement, des variations de densité et du processus d’extraction, souvent assistée par un moteur externe. Une surveillance continue est primordiale pour optimiser le refroidissement en fonction de la charge des processeurs, qui peut varier considérablement lors de workloads intensifs. Par ailleurs, l’ensemble de l’écosystème énergétique, en particulier lorsqu’il intègre des sources d’énergie renouvelables, doit également être constamment surveillé afin de cartographier efficacement la demande et l’offre.
Un refroidissement par immersion efficace peut toutefois générer des économies globales allant de 0,50 à 1,10 $ par watt, avec un potentiel d’économies accrues au niveau des dépenses d’investissement (capex). En supposant une charge de 2 MW pour un data center, les économies peuvent atteindre 1 à 2 millions de dollars lors de la phase de capex, ainsi qu’1 million de dollars par an sur les coûts énergétiques. Sur le plan opérationnel, l’efficacité énergétique moyenne, mesurée par le Power Usage Effectiveness (PUE), peut être réduite de 1,4 à 1,2.
Préparer les data centers pour l’ère de l’intelligence artificielle
Il est inconcevable de sous-estimer l’importance d’un approvisionnement en énergie verte pour permettre aux data centers d’atteindre leurs objectifs de neutralité carbone. Une telle transition peut contribuer à réduire de façon significative leur empreinte carbone, en diminuant à la fois les émissions directes (scope 1) et celles liées à leur consommation énergétique (scope 2).
Avec l’explosion des données générées par l’intelligence artificielle, la demande en data centers ne cessera de croître. Les data centers traditionnels, souvent incapables de gérer les pics de données et de répondre aux besoins croissants de flexibilité, poussent les organisations à adopter des infrastructures conteneurisées ou modulaires. Ces solutions modernes offrent une puissance et une densité pouvant être jusqu’à six fois supérieures à celles des infrastructures classiques. De plus, l’intégration de l’IoT, de l’intelligence artificielle et de solutions d’efficacité énergétique basées sur le retrofit permet d’optimiser significativement les opérations.
En parallèle, l’intelligence artificielle s’impose comme un outil clé pour anticiper la charge de données et les flux entrants, ainsi que l’augmentation correspondante de la consommation énergétique dans les data centers. Grâce à son aptitude à analyser les tendances des données, aussi bien à court qu’à long terme, l’IA permet d’optimiser la gestion des opérations et de renforcer leur efficacité.
Par exemple, dans un data center dédié au secteur de la santé, l’intelligence artificielle peut anticiper la croissance des données résultant des avancées des systèmes médicaux et des dispositifs IoT qui génèrent d’importants volumes de données. Cela permet aux hôpitaux de planifier leurs besoins accrus en stockage et en traitement des données de manière proactive.
L’intelligence artificielle peut également être appliquée à des secteurs spécifiques pour modéliser les flux de données issus de différents systèmes, optimiser l’efficacité et anticiper le moment où un data center pourrait nécessiter une expansion, par exemple dans un horizon de 12 à 18 mois. Cela permet aux organisations d’évaluer la capacité de leurs infrastructures actuelles et de planifier efficacement leurs besoins futurs.
L’adoption croissante de l’IA intensifie l’utilisation des data centers, augmentant les défis énergétiques et climatiques. L’UE, dans le cadre de ses objectifs de réduction énergétique de 11,7 % d’ici 2030, prévoit de nouvelles règles pour les data centers. Des solutions comme le refroidissement par immersion et l’IA sont essentielles pour optimiser l’efficacité et anticiper les besoins futurs tout en réduisant leur impact environnemental.
Téléchargez cette ressource

Prédictions 2025 des menaces persistantes avancées
L'analyse et l'évolution du paysage des menaces persistantes avancées (APT) et des conséquences sur vos infrastructures IT. Découvrez la synthèse des prédictions, tendances et recommandations pour 2025 avec les experts Kaspersky.