Des serveurs au pays du froid

308
avril 2013
© Google - Connie Zhou
Google a construit son dernier date center à Hamina en Finlande. L'environnement froid et surtout l'eau de mer du golfe de Finlande lui permettent de refroidir l'infrastructure.

Réussir à faire baisser la facture énergétique des grands centres de données est l’un des enjeux du cloud computing.

Vous trouvez le ventilateur de votre ordinateur un peu trop bruyant ? Imaginez alors ce qu’il en est dans un data center regroupant des centaines, voire des milliers de serveurs informatiques. Car pour éviter la surchauffe, il faut les refroidir en permanence. Et plus que le bruit, cela a surtout un coût, en énergie ! Cela représente entre 30 et 50 % de la facture énergétique totale de ces infrastructures. Tant et si bien que certaines entreprises - Facebook pour ne citer qu’elle - ont décidé de délocaliser leurs centres dans le Grand Nord, pour refroidir à moindres frais. « Cette méthode de free cooling existe aussi en France, explique Anne-Cécile Orgerie, chercheuse CNRS spécialiste de la problématique énergie. Mais c’est surtout efficace pour les petits centres. Des solutions alternatives sont testées, par exemple utiliser la chaleur pour alimenter un circuit de chauffage d’un bâtiment voisin. » L’autre approche, c’est de baisser la consommation globale des serveurs.

Rester réactif

C’est l’objet de recherches menées au centre Inria Rennes, dans le cadre du projet Snooze. L’objectif est de parvenir à éteindre les machines non utilisées. Car, dans un cloud, tous les serveurs ne sont pas occupés en permanence. « C’est en éteignant les machines que l’on gagne le plus en termes de consommation d’énergie, précise Anne-Cécile Orgerie. La difficulté est de ne pas perdre en réactivité, car allumer un serveur prend toujours un peu de temps. Or aujourd’hui, sur le cloud, les clients veulent une grande disponibilité. À Lyon, j’ai travaillé sur la plate-forme de calcul française Grid 5000. L’avantage, c’est qu’elle dispose d’un agenda. J’ai pu mettre au point sur un système de prédiction des pics d’utilisation et ainsi déterminer s’il est judicieux d’éteindre un serveur ou non et décider quand le rallumer. » Pour mesurer l’économie réalisée, la chercheuse a branché des wattmètres directement sur les serveurs. « En un an, nous avons montré qu’on pouvait économiser, sur un centre de taille moyenne, l’équivalent de la consommation d’un village de 600 habitants. » Cette méthode de prédiction n’est pas reproductible telle qu’elle sur un cloud, qui n’a pas d’agenda, mais dispose de listes d’attente. « On peut adapter la méthode pour repérer si une tâche est en attente pour un serveur, par exemple. »

Le pouvoir de l’utilisateur

Les résultats de Snooze sont déjà utilisés par Christine Morin, directrice de recherche à Inria-Rennes (lire p. 10-11) actuellement détachée à Berkeley(1), pour permettre aux physiciens, biologistes, chimistes, ou encore climatologues d’optimiser leur utilisation des grilles de calculs et des clouds. Une équipe associée vient même d’être créée entre les deux centres. Dans les clouds privés par contre, ces derniers résultats ne sont pas encore appliqués, même si la problématique de l’énergie devient intéressante, car la ressource est de plus en plus chère ! Ainsi le nouveau centre d’Orange, en cours de construction en Normandie, devrait afficher de meilleures performances que ses prédécesseurs. « Il serait également possible de jouer sur l’utilisateur en proposant des tarifs “éco” attrayants, pour inciter l’utilisation lorsque des énergies renouvelables sont disponibles, par exemple. » Comme dans beaucoup de modèles économiques, c’est finalement le consommateur qui peut influencer sur les pratiques.

Tabs

Céline Duguey

Ajouter un commentaire

LE DOSSIER