La révolution du cloud

N° 308 - Publié le 8 avril 2013
© Tom Wang-Fotolia.com

Magazine

4301 résultat(s) trouvé(s)

Conçu pour faire face à l’explosion des données, ce service informatique à la demande pose de nouvelles questions.

En 2007, le site de commerce en ligne américain Amazon, connu pour ses ventes de livres ou de CD, lance un nouveau service. Il propose de louer une partie de ses infrastructures informatiques. Car, pour faire face aux pics de fréquentation, notamment à l’approche de Noël, l’entreprise a investi dans une énorme quantité de serveurs... qui ne lui sont plus utiles le reste de l’année. Le cloud computing - “informatique dans les nuages” en français - voit le jour. Contre rémunération, il est possible d’avoir accès aux ressources d’Amazon, qui, grâce à des logiciels, peuvent héberger des milliers de machines virtuelles. Comme si vous aviez un véritable ordinateur devant vous, sauf qu’il est inclus dans un serveur beaucoup plus puissant, éventuellement à l’autre bout du monde. « L’utilisateur peut composer la machine de son choix, avec tel type de processeur et tel système d’exploitation - Linux en général », explique Christine Morin, responsable de l’équipe Myriads au centre Inria de Rennes.

Une explosion de données

Vincent Roussillat, coresponsable de la Cloud Factory chez Orange compare ce service aux Vélostars : « On ne paye que les heures de location, en fonction de nos besoins. » Un service élastique, adaptable, qui tombe à point, car la production de données informatiques explose et le dogme de la mobilité exige que l’on puisse avoir accès à ces données partout, depuis n’importe quel terminal. Donc qu’elles ne soient pas stockées dans un disque dur bloqué à la maison, par exemple. Mais si le modèle économique est nouveau, la technologie, elle, n’en est pas à ses débuts. « Les premières recherches sur la virtualisation datent des années 60, notamment par IBM, rappelle Christine Morin. À l’époque les PC n’existaient pas, seuls de gros ordinateurs centraux étaient accessibles, et les utilisateurs nombreux, parmi les scientifiques, puis dans les entreprises. Alors des techniques sont apparues pour isoler, sur une même machine, les différentes activités. » Mais il faudra attendre l’amélioration des processeurs, dans les années 2000, pour voir un regain d’intérêt dans ce principe de virtualisation.

Externaliser, à quelles conditions ?

« Les chercheurs ont été parmi les premiers intéressés, avec l’apparition des grilles de calcul. » Le projet Grid 5 000 (1) développé en partie au centre Inria de Rennes en est un exemple. « La différence, c’est que les grilles naissent d’une mutualisation entre un petit nombre d’acteurs. Le cloud est un service commercial, à disposition de tous. Et cet aspect économique a fait émerger de nouvelles questions. » L’optimisation du coût mais surtout le besoin nouveau d’établir un contrat, entre le fournisseur du cloud et le client. « Ce sont les LSA (Local Service Agreement). Ils stipulent les différentes conditions : les garanties de sécurité, mais aussi la taille et le nombre de machines virtuelles allouées. Comment négocier ces contrats à distance, sans nécessairement parler avec le fournisseur ? Et surtout, comment assurer qu’ils soient bien respectés ? » À Télécom Bretagne, une équipe s’intéresse de près aux aspects sécurité. Si certaines entreprises ont déjà franchi le pas, d’autres sont freinées par ces questions.

« La localisation des serveurs en particilier peut poser problème. » La législation change suivant les pays. En faveur du “Patriot Act”, le gouvernement américain dispose ainsi d’un droit de regard sur les données hébergées sur les serveurs de sa nationalité. Des raisons qui ont motivé la France à se lancer dans la course du cloud, avec deux entreprises.

Fédérer les clouds

Pour faire face aux gros mastodontes américains déjà bien implantés sur le marché, comme Amazon ou Google, l’équipe de Christine Morin envisage une solution alternative, avec des collègues européens, dans le cadre du projet Contrail : fédérer des clouds. « Le client s’adresse uniquement à la fédération, organisme tiers, qui interagit avec les différents fournisseurs. C’est elle qui décide quelles ressources utiliser, en fonction des exigences du client. Pour cela nous développons des algorithmes de sélection de ressources. » Mais cette interopérabilité suppose que les systèmes fonctionnent de façon homogène. « Nous sommes donc aussi impliqués dans les processus de standardisation. Côté fournisseur, il faut également décider si l’on tasse beaucoup de machines virtuelles sur les serveurs ou pas. Cela influe sur la performance, mais améliore la consommation énergétique. » Car les immenses centres de données consomment de l’électricité plus que de raison, pour leur fonctionnement et leur refroidissement !

Un nouveau paradigme

Dans les entreprises, l’arrivée du cloud a un impact sur l’organisation. Les services informatiques ne seront plus dédiés aux tâches de maintenance, mais, par exemple, aux relations avec les fournisseurs. Ces derniers ont également donné naissance à de nouveaux métiers. Et chez les chercheurs aussi les habitudes de travail changent. Car s’ils sont nombreux à travailler pour améliorer le cloud, ils en restent aussi des utilisateurs. Ainsi, une autre équipe d’Inria s’est associée avec Microsoft et des biologistes pour traiter des milliards de données sur le cerveau (lire ci-dessous). Après l’expérimentation, l’apparition des premières théories avec Newton ou l’ère des simulations informatiques, le cloud pourrait bien donner naissance à une nouvelle façon de faire de la recherche.

Deux clouds pour un État

Il devait n’y en avoir qu’une, mais faute d’accord entre les principaux acteurs, elles sont deux. D’un côté, il y a Cloudwatt, portée par Orange et Thalès. De l’autre Numergy, de SFR et Bull. Ces deux sociétés proposent, depuis fin 2012, des solutions de cloud intégralement françaises. Elles ont été créées suite à un appel à manifestation lancé par le gouvernement dans le cadre des investissements d’avenir et bénéficient, à ce titre, d’un financement de la Caisse des dépôts de 75 millions d’euros chacune.
L’objectif affiché : offrir des solutions souveraines, pour garantir la sécurité et l’hébergement en France de leurs données aux grandes entreprises françaises et européennes, notamment dans les domaines sensibles comme l’armement ou l’aéronautique. Il s’agit également de rivaliser avec les mastodontes américains. Ces deux initiatives laissent pourtant nombre d’acteurs perplexes. D’une part, car la division du consortium en deux en affaiblit la portée. D’autre part, car de petites entreprises qui proposaient déjà du cloud made in France estiment la concurrence déloyale.

Rens. :www.numergy.com
www.cloudwatt.com
Céline Duguey

Christine Morin
christine.morin [at] inria.fr (christine[dot]morin[at]inria[dot]fr)

TOUT LE DOSSIER

Abonnez-vous à la newsletter
du magazine Sciences Ouest

Suivez Sciences Ouest