Une alternative aux clouds serveurs-centriques

Le cloud computing repose sur une poignée de centres de données géants concentrés dans très peu de lieux de surcroît fort reculés. D’où une grosse dépense d’énergie pour transporter l’information depuis et vers l’utilisateur final. Sans parler des problèmes de sécurité et de latence. Lancé en 2015 par Inria et achevé en 2019, le Project Lab Discovery avait pour objectif d’étudier la mise en place d’une architecture plus efficace. Appelé Edge Computing, ce nouveau paradigme exploite la kyrielle d’infrastructures locales dont disposent les opérateurs télécom tout au long de leur réseau. Pierre angulaire : OpenStack, le logiciel open source devenu le standard de facto pour gérer les centres de données.


Que se passe-t-il quand vous réservez une table pour midi en vous connectant au site web de votre restaurant favori quelque part en Europe ? Il y a de fortes probabilités que la communication s’engouffre dans un câble transatlantique jusqu’aux Etats-Unis avant de traverser tout le continent pour arriver jusqu’à Quincy, sur la côte ouest. Grâce à son barrage et son électricité pas chère, cette bourgade rurale concentre aujourd’hui une poignée d’immenses centres de données hébergeant une proportion inouïe de l’Internet. La confirmation de votre réservation fait ensuite le chemin inverse par la même artère numérique.

Cet aller-retour laisse une empreinte énergétique non négligeable. La concentration d’autant de centres de données dans un seul endroit constitue aussi, en soit, une vulnérabilité. Mais c’est en fait un troisième problème, celui de la latence, qui pourrait bien sonner le glas du cloud computing. Car les nouvelles applications ne supporteront pas des temps de réponse trop longs.

Les prochaines applications seront un continuum entre l’Internet des objets et les centres de calcul. Or ce continuum ne va pas fonctionner avec l’architecture existante. Prenez la réalité augmentée : tout ce qui dépasse les 20 millisecondes n’est pas viable. Ces contraintes-là ne peuvent tout simplement pas être prises en compte par les infrastructures actuelles, explique Adrien Lèbre, responsable de l’équipe de recherche Stack qui fut aussi le coordinateur du Project Lab Discovery. Il a cinq ans, les milieux académiques et industriels débattaient encore de l’éventuelle nécessité d’un nouveau paradigme. Certains soutenaient que, d’un point de vue économique, il n’existait pas d’alternative au modèle des serveurs centralisés. Mais au bout d’un moment, les gens se sont aperçus que le débat n’avait plus lieu d’être en raison des nouveaux besoins, notamment ceux liés à la latence.

Autre problème : le volume atteint par les données. “Prenez le concept de ville intelligente. Si vous connectez toutes les caméras de circulation dans Paris, si vous voulez faire de l’analyse d’images temps réel sur le flux, puis reprogrammer les feux rouges après un accident, avertir ensuite les automobilistes, etc, tout cela va générer énormément de données.

 

Edge Computing

Dans ce contexte, le projet Discovery visait à étudier si le concept de ‘edge computing’ (en français : informatique en périphérie) pouvait constituer une alternative envisageable. L’idée : utiliser la structure internet du réseau Internet lui-même. Sur ce réseau, les opérateurs possèdent ce que l’on appelle des points de présence. C’est-à-dire des installations physiques où ils maintiennent des routeurs, des serveurs et divers autres équipements. Situées à proximité des utilisateurs, ces plateformes sont les mieux placées pour héberger des centres de calcul et de stockage afin de servir les besoins locaux. On peut même aller plus loin en installant de la ressource dans toutes sortes de capillarités : le mobilier urbain, les trains, les radiateurs électriques, etc.

 

OpenStack

Mais pour orchestrer une architecture à ce point hétérogène et massivement géo-distribuée, encore faut-il un logiciel à la hauteur. Estimant qu’OpenStack pourrait être le bon candidat, les scientifiques ont rejoint cette communauté en 2015.

Peu après, ils y ont créé un groupe de travail pour étudier la faisabilité. Son nom : FEMDC (pour: Fog Edge Massively Distributed Clouds). “Nous avons été rejoints par Red Hat et aussi Orange qui finance beaucoup nos recherches. Puis nous avons vu arriver AT&T, Verizon et les autres. De 15, nous sommes passés rapidement à plus de 100 membres. Ensuite, en mai 2018, la Fondation nous a informé que le groupe devenant très critique pour elle, elle souhaitait en reprendre la gestion.”

Cette décision intervenait au milieu d’une réorganisation plus globale. “Jusqu’alors, la Fondation OpenStack se consacrait à un seul logiciel. Puis elle a décidé d’étendre son champ d’action. Maintenant, ils développent d’autres logiciels et différentes actions d’infrastructure ouverte. Ils perçoivent l’edge computing comme l’une de ces actions et ils ont créé toute une branche autour de ce thème.” On y retrouve des partenaires comme l’équipe Stack ou encore l’ETSI, l’Institut européen des normes de télécommunications. “Notre équipe et le Project Lab Discovery ont permis de créer la dynamique initiale, ce qui nous vaut aujourd’hui de bénéficier d’une grande crédibilité. Déchargés de la gestion du groupe, nous nous reconcentrons maintenant sur de la recherche pure.

Plusieurs solutions de edge computing deviennent actuellement opérationnelles. “Par exemple, Red Hat en propose une fondée sur les modèles que nous avons étudiés. Elle permet de gérer des infrastructures hautement distribuées. Elle fonctionne très bien tant que la ressource n’est pas déconnectée.

 

Partitionnement réseau

Et c’est là que réside maintenant le défi scientifique. “Les modèles actuels ne prennent pas en compte le partitionnement réseau. Si mon orchestrateur pour la France se trouve à Paris et que, pour une raison quelconque, la Corse est déconnectée, alors les gens sur l’île ne peuvent plus accéder à leurs données locales car ils ne peuvent plus joindre l’orchestrateur. Or, avec l’edge computing, ces déconnexions deviennent la norme.” Conclusion : “il faut installer un orchestrateur pour chaque partition possible du réseau, pour chaque centre de données. Ces orchestrateurs devront collaborer à la demande. Imaginez que vous travaillez sur un document partagé dans Google en attendant l’avion à l’aéroport. Que se passe-t-il quand vous embarquez ? Vous êtes déconnecté ! Il faut donc un orchestrateur dans l’avion sur lequel les passagers puissent basculer.

 

Réifier la distribution

Cela implique de créer des systèmes autonomes capables d’inférer les décisions de localité selon le contexte. Mais les scientifiques visent aussi des orchestrateurs programmables. “Après tout, les utilisateurs sont souvent les mieux à même de décider de quel orchestrateur ils ont besoin. Pendant longtemps, on a masqué les aspects distribution. Il faut maintenant les réifier pour laisser les utilisateurs exprimer leurs besoins en distribution. Par exemple, ils pourraient très bien vouloir dire : je juge telle donnée sensible. Je demande spécifiquement à ce qu’elle soit traitée dans les frontières de mon pays.

Et ce n’est pas tout. “Dans l’avenir, nous pourrions stocker nos données dans la box Internet de la maison. Nous accepterons, ou pas, de les partager avec une communauté. Imaginez que vous ayez un problème de santé. Votre docteur décide de surveiller votre cœur pendant deux semaines. Vos données iront directement dans votre box. Le médecin vous demandera ensuite la permission d’effectuer du calcul sur ces données demeurées en permanence dans votre appareil. En termes de protection de la vie privée, c’est parfait !

Un temps viendra aussi peut-être où les internautes cesseront d’envoyer leurs données sur les réseaux sociaux. “À la place, ils publieront juste un lien pointant vers des contenus hébergés sur leur box et auxquels on pourra ainsi accéder. Cela change beaucoup de choses en termes de propriété : les utilisateurs n’auront plus à abandonner des droits sur leurs contenus car ceux-ci resteront sur leurs propres appareils.

L’Edge computing ouvre ainsi une boîte de pandore où les nouvelles possibilités rejoignent celles déjà apportées par les micro-services. Il s’agit de composants externes que les développeurs assemblent pour concevoir des applications. Par exemple une API de géolocalisation et une autre de météo sur un guide de voyage. Dans ce contexte, les développeurs ont rapidement adopté Kubertenes, une pile logicielle introduite par Google pour faciliter cette composition et gérer le cycle de vie des applications. “Dans le même ordre d’idée, les développeurs ont maintenant besoin d’un outil pour les aider à concevoir des applications capables d’exploiter l’infrastructure edge. Ces applications pour le edge n’existent pas encore. Mais c’est comme l’Iphone d’Apple au début : nous savons qu’elles arrivent.

  • Stack est une équipe-projet d’Inria du département informatique de l’IMT Atlantique, ainsi que du Laboratoire des Sciences du Numérique de Nantes (LS2N, UMR CNRS 6004).
  • Un Inria Project Labs (IPL) est un projet inter-équipe de l’institut. Discovery associait cinq d’entre elles :  Asap, Stack, Avalon, Myriads et Kerdata, ainsi qu’Orange Labs et Renater comme membres extérieurs. Les IPL sont désormais appelés : Défis Inria.

 

Les commentaires sont clos.