Episode 3 : où l’on parle de consommation électrique

Dans les coulisses techno’ de PowerBoutique

Lors du précédent épisode, nous nous étions affolés de la consommation électrique des serveurs web. Nous parlions d’une consommation journalière de 80 kw.h, juste pour la génération des pages web. En terme de puissance instantanée, ça équivaut à 6,66 kw.

En réalité au moment où j’écris ces lignes, je ne suis pas dans le data center. Pourtant, j’ai sous les yeux une image très précise des courants électriques qui circulent dans les équipements de distribution à l’intérieur des baies (les armoires de serveurs).

Le courant distribué par chacun de ces PDU(1) est affiché sous forme de graphiques, en temps réel sur mon ordinateur portable. Je peux connaître des détails au niveau de chaque prise de courant. En vrai, je peux même les couper une par une depuis mon ordinateur. Rassurez-vous, je ne vais pas le faire.

Je reviens donc à mes calculs de puissance et, en additionnant chaque mesure, j’obtiens un total de 12 kw. C’est la valeur de puissance pour l’ensemble de nos équipements raccordés et actifs. Cela comprend les grappes de serveurs, les systèmes de fichiers (sauvegardes locales comprises), les équipements réseau et les équipements de contrôle d’énergie et d’environnement de nos baies.

Cette électricité qui arrive dans l’allée n’est vraiment pas la même que celle qui arriverait chez tout un chacun. L’énergie arrive au data center en moyenne tension et y est ensuite traitée. Pour ce faire, le traitement nécessite des blocs transformateurs en extérieur, des pièces remplies d’onduleurs pour la mise en forme du courant, un stockage tampon de l’électricité, matérialisé par des centaines de grosses batteries, et enfin, tout le système de distribution en salle. L’ensemble est sous régime de redondance avec un backup assuré par 2 groupes diesels et leurs réserves de fioul pour 48 heures. Au bout du bout, des câbles de 16 ou 32 ampères amènent dans les baies une électricité super haut de gamme. Dans notre cas, on n’est pas sur de la haute densité (plus de 10 kw par baie), mais on peut quand même dire que ça envoie pas mal. A propos, tout ce petit monde chauffe lui aussi et consomme sa part de courant.

Bien, nous avons donc, d’une part, des machines informatiques et, d’autre part, du refroidissement, des équipements électriques, des éléments de sécurité, et accessoirement l’éclairage. Dans notre exemple, plutôt moderne, avec une gestion fine des conditions environnementales (sur lesquelles je reviendrai plus tard), nous consommons 0,6 watt en plus pour 1 watt d’informatique. Dans cette consommation supplémentaire, une grosse part est dédiée au refroidissement, peut-être plus de 80%, le reste étant, dans l’ordre, l’échauffement des systèmes électriques, on vient de le voir, les systèmes de sécurité puis l’éclairage. Et comme tout le système doit être redondé et protégé des pannes de courant, même la climatisation fonctionne sur de l’électricité haut de gamme !

 

Avant même d’optimiser les systèmes environnementaux, il faut s’assurer que les serveurs et le code qui tourne dessus sont le plus sobre possible.

Une étude montre que, pour un watt économisé au niveau du processeur d’un serveur, on se retrouve avec une économie de 2,8 watts à l’autre bout de la chaîne(2), c’est-à-dire au compteur EDF. Ceci implique d’utiliser le plus possible du matériel récent, aux processeurs ayant le pas de gravure le plus fin possible, ce qui, dans le même temps, ruine nos efforts pour rentabiliser ces machines dans la durée. Et bien sûr, il faudra songer à trouver des solutions pour réutiliser les “pas si vieilles” machines de manière judicieuse.

Ensuite, on peut penser à améliorer le refroidissement. Aujourd’hui, on commence à voir des systèmes où l’on plonge les serveurs directement dans un bain de liquide non conducteur. Cela les refroidit en économisant beaucoup d’énergie. Pour l’instant, les installations de ce type extrême sont plutôt expérimentales, mais l’eau commence à être utilisée couramment dans des échangeurs de calories que l’on place parfois juste au-dessus des alignements de baies et, plus généralement, dans des installations extérieures. Les très gros data centers ont maintenant des bassins, voire des piscines !

 

Chasse aux watts et PUE(3)

La chasse aux watts et la recherche d’un meilleur PUE – ce rapport entre l’énergie totale consommée et celle consommée  juste pour les équipements informatiques – mobilisent les industriels et libèrent les imaginations. L’installation du premier data center de Facebook hors des États-Unis, au nord de la Suède, à Luleå, tout près du cercle polaire arctique en est un exemple. Google n’est pas en reste avec un projet en construction en Finlande exploitant un système de refroidissement à l’eau de mer.

Si la mer gèle, ils ne sont pas sortis de l’auberge… mais on ne va pas reparler de gel maintenant, on en a eu assez au mois de février. Il n’empêche que, dans le prochain épisode, nous continuerons à explorer les joies des conditions environnementales avec, notamment, le free cooling et le contrôle du taux d’humidité.

Alex – Infrastructure, Système & Réseau – PowerBoutique.

 

(1) PDU : Power Distribution Unit = unité de distribution d’énergie
(2) Energy Logic: Reducing Data Center Energy Consumption by Creating Savings that Cascade Across Systems – Étude Emerson
(3) PUE : Power Usage Effectiveness = indicateur d’efficience énergétique

 

Crédits : Jeanette Dietl / Edelweiss / Beboy ©Fotolia

Un commentaire

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *