Ramener le calcul et le stockage au plus près de l’utilisateur

Nouvelle équipe dirigée par Adrien Lebre à Nantes, Stack s’attelle à redéfinir les infrastructures de l’informatique en nuage. Objectif : relocaliser les centres de données afin de répondre aux nouvelles contraintes de latence des nouveaux usages (réalité augmentée, Internet des objets…) tout en essayant d’en minimiser l’impact énergétique. Pour orchestrer cette transition du cloud vers l’edge computing, académiques et industriels  s’appuient sur des projets open-source conséquents, tels que l’éco-système OpenStack supporté par une communauté de plus de 1 500 développeurs réguliers.

Facebook. Youtube. Dropbox. Amazon. En 10 ans, les services de cloud ont bousculé nos habitudes. Nos photos, nos vidéos et autres contenus ont migré vers Internet. Problème : ces teraoctets s’agglutinent dans une poignée de gigantesques usines de stockage hyper-centralisées. Situés à l’autre bout du monde, ces centres de données engloutissent une énergie phénoménale. Les fichiers voyagent inutilement et à grands frais sur des distances déraisonnables. Sans oublier les temps de latence qui n’arrangent rien à l’affaire.

Illustration : perspective dans une salle de serveurs, porte, bleu

© Oleksandr Delyk – Fotolia

Le cloud va donc devoir se réinventer. Le prochain paradigme s’appelle l’edge computing. Il vise à ramener les données et le calcul au plus près de l’utilisateur. Comment ? En exploitant la myriade d’infrastructures locales dont disposent les opérateurs télécom tout au long de leurs réseaux. On les appelle les points de présence. Mais au préalable, il faut concevoir une pile logicielle d’une complexité hors-norme. La nouvelle équipe Stack (1) ambitionne de jouer un rôle moteur dans ce chantier titanesque.

Nous explorons cette thématique depuis 2015 au travers de plusieurs projets, comme l’action Discovery, une action qui associe plusieurs équipes Inria (2), explique Adrien Lebre. En trois ans, les choses ont beaucoup évolué. Aujourd’hui, l’edge computing ne fait plus débat. Tout le monde s’accorde à dire qu’il faut le faire. L’opérateur Orange s’apprête déjà à déployer des points de présence de nouvelle génération afin d’implémenter cette future architecture. Avec les nouveaux usages comme la réalité virtuelle ou les véhicules autonomes, les gens auront besoin d’une plus grande puissance de calcul et d’une plus faible latence.

Des serveurs dans des recoins insoupçonnés

illustration d'une bouche de métro avec une colonne présentant une affiche de film

Image par Florent Trouvé de Pixabay

Cette informatique utilitaire ira se loger dans les recoins les plus insoupçonnés. “Vous voyez ces colonnes Morris avec leurs affiches de cinéma à Paris ? Rien n’empêche d’y installer un serveur. Quand on consultera son smartphone, l’appareil ira dialoguer avec cette colonne, soit pour exploiter sa puissance de calcul, soit pour y déposer des vidéos. Plus besoin d’aller jusqu’au datacenter de Youtube. De la même façon, on pourrait aussi installer un serveur faisant en plus office de radiateur électrique au quatrième étage de l’immeuble en face.

 

Et ce n’est pas tout. “Demain, les opérateurs offriront des téléphones nouvelle génération. En échange, l’abonné acceptera de mettre par exemple 20% de sa puissance de calcul à disposition des autres clients. Son téléphone travaillera donc parfois pour l’un de ses voisins et inversement. C’est le mode Device-to-Device. En l’occurrence, nos recherches n’iront pas jusque-là. Nous nous arrêterons au stade  au-dessus : celui des micro et nano centres de données.

La géo-distribution devient primordiale

Du coup, la géo-distribution devient primordiale. “Aujourd’hui, il y a de fortes chances que deux personnes effectuant de la web-conférence entre Paris et Lyon passent par un serveur hébergé aux États-Unis. Demain, ils utiliseront une infrastructure à égale distance entre les deux villes. Idem pour les jeux en ligne. Le moteur qui fait tourner le jeu se situera au plus près de la majorité des joueurs.

Les chercheurs envisagent même d’installer des machines… dans les transports en commun . “Dans un train, la connexion est souvent médiocre. D’où l’idée d’y mettre plusieurs serveurs faisant notamment office de cache. Les voyageurs qui se connectent à Youtube vont en fait accéder aux vidéos via ce cache. Ils pourront aussi y déposer leurs propres fichiers qui seront poussés vers l’extérieur au moment du passage en gare quand la connexion s’améliore.

Reconcevoir les applications de tous les jours

Adrien Lebre

Parallèlement au redéploiement du matériel, “il faut aussi reconcevoir les applications de services web utilisées tous les jours. Ceci afin qu’elles puissent exploiter cette informatique edge, la géo-distribution et les modes déconnectés. La nouvelle pile logicielle doit permettre au développeur de dire : je veux que mon serveur vidéo soit à tel et tel endroit car c’est là que se trouve mon audience. Elle doit aussi lui donner la possibilité d’adapter la localisation des composants de son application : composant n°1 à Paris, composant n°2 à Bordeaux, réplicat du composant n°1 dans le train, etc.”  In fine, cette pile logicielle s’apparente  à “un système d’exploitation capable d’utiliser des ressources hardware massivement géo-distribuées.

Plus facile à dire qu’à faire… “L’outil qui permet aujourd’hui d’opérer un centre de données centralisé repose déjà sur 20 millions de ligne de codes. Combien en faudra-t-il pour appréhender l’ensemble des spécificités du Edge? Est-ce qu’Inria va  développer cette pile logicielle tout seul ? Non. Même les gros opérateurs en seraient difficilement capables. Les systèmes deviennent tellement complexes que les acteurs ne développent plus qu’une brique interagissant avec le reste. Ils n’ont plus qu’une vision parcellaire de cette pile.

Inria fortement impliqué dans OpenStack

Qui alors pour porter cette mutation ? Plusieurs acteurs étudient actuellement dans quelle mesure la solution OpenStack pourrait servir de socle. “Démarré en 2010, c’est aujourd’hui le standard de facto pour gérer les serveurs du cloud. C’est aussi l’un des plus gros logiciel du monde. Il s’appuie sur une communauté de 1 500 développeurs réguliers et 70 000 utilisateurs. Inria y a une forte implication. Outre le projet Discovery, nous sommes responsables d’un groupe d’intérêt sur cette thématique edge.

Le projet introduit aussi de nouvelles complexités logicielles. « OpenStack peut être vue comme la brique de base, c’est-à-dire le système d’exploitation au-dessus duquel il va falloir faire fonctionner non seulement les applications comme Youtube, mais aussi des piles logicielles comme Hadoop pour le big data ou encore des intelligences artificielles. Nous allons donc devoir appréhender tout ce montage dans sa globalité afin de pouvoir proposer des mécanismes et des abstractions logicielles adaptés. Notre équipe rassemble des experts sur ces différentes couches.

En pratique, les scientifiques vont surtout s’efforcer de guider l’effort collectif. “Nous avons accumulé une connaissance des différents systèmes dans leur globalité qui nous permet de conseiller les différents acteurs. Nous pouvons dire : développez plutôt comme ceci, évitez de partir dans telle direction, etc. Nous allons d’abord nous efforcer de produire une pile logicielle pouvant opérer un premier niveau de distribution, celui des centres de données. C’est l’objectif de notre équipe pour les quatre ans à venir.


Énergie verte
L’énergie constitue une autre de nos préoccupations essentielles, explique Adrien Lebre. Nous avons actuellement un projet piloté par mon collègue Jean-Marc Menaud pour étudier la géothermie d’un centre de données et son alimentation par énergies vertes. Dans un bâtiment d’IMT Atlantique, à Nantes, nous hébergeons un nœud de l’infrastructure de calcul Grid’5000. La salle est bardée de capteurs pour mesurer les dégagements de chaleur, optimiser le placement des 48 serveurs et positionner les tâches de calcul afin de minimiser les moyens nécessaires au refroidissement.
Sur le toit : une batterie de panneaux photovoltaïques. “Nous espérons aussi recevoir de l’énergie éolienne. Ensuite, il s’agit de développer une intelligence logicielle pour optimiser l’usage de cette énergie. Exemple : si le parc éolien est trop éloigné, le coût de transport de l’électricité ne justifie pas forcément de privilégier cet approvisionnement à certains moments. On peut aussi planifier les tâches à exécuter en fonction des prévisions d’énergie verte disponible.”
Dans les dernières années, plusieurs initiatives ont vu le jour pour déplacer les serveurs et s’en servir comme… appareils de chauffage domestique. “Nous collaborons avec l’entreprise Qarnot Computing qui a été précurseur de ces radiateurs en France. Maintenant, elle se positionne plutôt sur les services et couches logicielles liées aux capteurs placés dans ces objets.”
À noter aussi l’entreprise Stimergy dont les serveurs chauffent en partie la piscine de la Butte-aux-Cailles à Paris et la société allemande Cloud&Heat qui fournit des centres de données pouvant chauffer les immeubles de bureaux.


  • (1) Co-localisée à IMT Atlantique et à l’université de Nantes, Stack est une équipe commune à Inria et LS2N. Elle fait suite en partie à l’équipe Ascola.
  • (2) Discovery est un Inria Project Lab (IPL) associant les équipes Avalon, Corse, Myriads, Resist et Stack, ainsi qu’Orange et des collaborations ponctuelles avec des acteurs comme Renater ou encore RedHat.
  • Crédit photo : © Oleksandr Delyk – Fotolia

Les commentaires sont clos.