Retour sur le débat consacré à la partie énergétique consommée dans les datacenters, donné lors de la dernière rencontre du Club de la Presse Informatique B2B.
CPI-B2B : les Datacenter énergivores
Pour l’occasion, notons la présence de quatre acteurs du domaine, Pascal Lecoq, directeur des services Datacenter pour HP France, Nicolas Frapard, directeur des ventes EMEA chez HGST, Mokrane Lamari, responsable avant-vente pour Equinix et Edouard Ly, directeur marketing et communication pour le compte d’Oxalide.
Premier constat fourni par Mokrane Lamari, la croissance de la part énergétique dans les datacenters est étroitement liée à la croissance du nombre d’utilisateurs et surtout de leurs besoins, ce qui au final se répercute forcément sur la consommation d’électricité. Avec cette logique, il est donc essentiel pour les entreprises comme pour leurs fournisseurs de réaliser une rationalisation et des économies d’échelle. En moyenne, explique le représentant d’Equinix, « 40% du coût d’exploitation concernent cette partie énergie et, c’est par conséquent le plus important en termes de budget dédié. Un datacenter de nos jours utilise entre 40 et 50Kw ». Bien sûr, tout dépend de la taille dudit datacenter mais surtout de son âge et de son niveau de technologies usitées.
Des chiffres confirmés par Pascal Lecoq qui ajoute que « de nos jours, 12 à 15 milliards d’objets communiquent, font des transactions et sont connectés et on estime qu’à l’horizon 2020 ce nombre devrait atteindre les 100 milliards ». Pour continuer sur cet ordre de grandeur, Nicolas Frapard avance que « 8 Zetaoctets sont générés chaque jour avec 2,7 stockés. Dans deux années, ces masses de données devraient doubler… ». Avec toutes ces informations, on comprend naturellement pourquoi il est vital pour toute la chaîne IT d’avancer vers une consommation amoindrie des ressources énergétiques.
PUE et DCEM
Pour quantifier et aider les différents professionnels dans le choix d’un Datacenter, deux indicateurs sous forme de ratio ont été mis en place. Le PUE ou Power User Effectiveness est plutôt simple et se compose de la consommation dégagée par le système en lui-même, son refroidissement et l’éclairage. Nicolas Frapard indique « auparavant on était sur un ratio de 2,5 mais désormais, on est plus sur 1,6 à 1,7 voire 1,1 pour les plus efficaces ».
Le DCEM, Datacenter Energie Management, est un autre indicateur plus complet européen pour prendre en compte d’autres éléments comme la récupération de l’énergie pour l’utilisation de cette dernière, comme par exemple le chauffage des installations annexes mais s’intéresse également à l’empreinte carbone et les énergies renouvelables. En effet, cette partie « green » qui permet de dégager de la réputation et une image positive, est de plus en plus prise en compte toujours dans l’optique de se démarquer de la concurrence. Pascal Lecoq salue l’initiative en pointant du doigt des datacenters Outre-Atlantique « Aux Etats-Unis, ils fonctionnent sur des groupes électrogènes parce que c’est tout simplement moins cher que se rattacher au réseau électrique, donc ils ont un PUE de folie ».
A l’heure où l’Europe et particulièrement Paris accueillent la Cop21, évènement dont l’objectif est de parvenir à des accords durables sur le sort de notre chère planète notamment avec la réduction de Co² en ligne de mire, une nouvelle réglementation devrait voir le jour le 5 décembre prochain portant sur l’obligation des entreprises à effectuer des audits sur leur consommation. Certainement avec la volonté de pouvoir plus facilement sanctionner les sociétés par la taxe carbone. ..
Réduire à tout prix
« Chez HGST , argumente Nicolas Frapard, nous sommes les seuls à fabriquer des disques à l’hélium permettant de réduire les frottements entre les plateaux au sein du disque et donc d’économiser de l’énergie sur le moteur ». Avec 7 plateaux au lieu de 5 soit 10 To par unité, on peut ainsi économiser le nombre de racks/serveurs, avec l’assurance que l’on peut « diviser par 3,3 la consommation énergétique du système au final ». Même si cette technologie représente un investissement, il est évident que les composants à la base du système évoluent vers une consommation amoindrie. Et c’est l’ensemble des composants qui évoluent, quelques années auparavant, la consommation d’un serveur non-actif simplement démarré était de l’ordre de 70% et est redescendu à 25/27%.
Pour Edouard Ly, « les composants ont fait un bon sur l’efficacité énergétique depuis l’arrivée de la mobilité ». La puissance a été multipliée sur les cœurs et les processeurs sont de plus en plus petits et performants. Ces processus ont été appliqués à l’ensemble de l’industrie qui permet de fournir le bon serveur spécialement conçu pour une tâche précise comme le Big-Data, le temps-réel ou encore le stockage cloud.
Au niveau des logiciels et de la virtualisation aussi, le développement suit le même chemin d’optimisation en automatisant et rationalisant les serveurs utilisés en fonction des pics ou non de charges mais aussi les données. Pascal Lecoq prend exemple du datacenter d’Orange de Val de Rueil où « une donnée d’un client existait en 70 copies… ». C’est donc dès le lancement d’un projet ou d’une application que les développeurs doivent prendre en compte cette partie ressource allouée alors que traditionnellement ils favorisent l’expérience utilisateurs et les fonctionnalités.
Tous les secteurs à l’image du e-commerce se dirigent vers des solutions d’auto-scalabilité, ils ne souhaitent payer que ce qu’ils utilisent en fonction de leurs besoins fluctuant selon les saisons rythmées par les soldes, Noël et autres.
L’utilisateur au cœur du besoin
Si dans le futur, les grosses entreprises seront amenées à s’installer dans des datacenters immenses avec l’intégralité des acteurs du réseau pour des raisons de rapidité et ceux de l’hébergement public pour un meilleur fonctionnement des systèmes hybrides, les entreprises de tailles modestes ou proposant certains types de services se tournent elles, vers de plus petites structures à proximité de leurs centres d’activité. Surtout avec l’ANSSI préconisant l’utilisation du cloud comme levier de croissance aux nombreuses PME françaises.
Pour schématiser, Edouard Ly utilise l’industrie du jeu vidéo afin de saisir l’évolution des besoins des utilisateurs finaux qui sont à l’origine de cette explosion des données, donc par extension des datacenters énergivores. Tout a démarré avec Pong et quelques pixels mais les sociétés du jeu-vidéo ont innové et ont créé un besoin de graphisme et de qualité. Les joueurs s’habituant au réalisme du dernier Fifa n’ont certainement pas envie de retourner à une version en deux dimensions. L’exemple peut s’appliquer aux Smartphones, applications en tout genre et autres services numériques !
Téléchargez cette ressource
Les étapes pour sécuriser votre système d’impression
Longtemps sous-estimée, la sécurisation d’un système d’impression d’entreprise doit être pleinement prise en compte afin de limiter le risque de fuite d’informations sensibles. Voici les 3 principales précautions à prendre.
Les articles les plus consultés
- L’utilisation des données pour survivre !
- Intelligence Artificielle : DeepKube sécurise en profondeur les données des entreprises
- Stockage autonome, Evolutivité & Gestion intelligente, Pure Storage offre de nouvelles perspectives aux entreprises
- 10 grandes tendances Business Intelligence
- Dark Web : où sont vos données dérobées ?
Les plus consultés sur iTPro.fr
- Quelles stratégies pour identifier et éviter la dérive des privilèges ?
- Les atouts cachés du Bring Your Own Model pour les entreprises
- NIS2 : les entreprises ne peuvent pas respecter la date limite de mise en conformité
- Le Low Code comme solution clé pour la gestion des systèmes Legacy
- Les cybercriminels veulent transformer les blockchains en hébergeurs de contenus malveillants