Session spéciale doctorants

Cette sessions de présentation aura lieu entièrement sur la plateforme interactive Workadventu.re.

Tous les inscrits aux JSI sont invités à découvrir les présentations des doctorants à l’occasion de cette session.
Un mail avec le lien d’accès personnalisé sera envoyé prochainement. 

Une fois sur WorkAdventure, il vous suffira alors de vous déplacer virtuellement dans le bâtiment Alan Turing du centre Inria Saclay – Île-de-France et d’entrer dans les salles thématiques (Covid-19, intlelligence artificielle, informatique quantique, numérique & environnement) pour écouter les présentations des 8 doctorants Inria et interagir librement avec eux.

Mission Covid-19 Inria

1. Intégrer le contact tracing et la mobilité dans la modélisation de l’épidémie de COVID-19,
par Luca Ganassali, équipe-projet Dyogene, Inria de Paris

Résumé : Depuis le début du XXème siècle, et très récemment lors de la pandémie de COVID-19, les modèles mathématiques de maladies infectieuses ont connu un essor afin de venir en aide à la décision en matière de politiques de santé publique. Nous proposons un modèle d’évolution de l’épidémie de COVID-19, en deux versions (probabiliste et mean-field), dont la principale contribution réside dans l’intégration d’une part de la mobilité des agents – à plusieurs échelles, changement de lieu de résidence ou trajets pendulaires quotidiens – et d’autre part du contact tracing. Nous confrontons ce modèle aux données réelles, discutons de ses applications et de l’estimation de ses paramètres.
=> Travail en collaboration avec Laurent Massoulié (équipe-projet Dyogene), Stéphane Gaubert (équipe-projet Tropical) et Marianne Akian (équipe-projet Tropical).

 

2. Conception des groupes pour les tests groupés pour la COVID-19 : Une étude de cas
par Tifaout Almeftah, équipe-projet Inocs, Inria Lille – Nord Europe

Résumé : La technique des tests groupés est une stratégie de dépistage qui consiste à diviser une population en plusieurs groupes de sujets disjoints. Concrètement, cela consiste à tester des groupes de sujets au lieu de tester chaque sujet individuellement. Si un groupe s’avère être négatif, cela veut dire que tous les sujets appartenant à ce groupe sont négatifs. Sinon, les sujets du groupe positif doivent être à nouveau testés individuellement. En vue de ralentir la propagation incontrôlable de la Covid-19, nous nous sommes penchés sur la mise au point d’un algorithme améliorant l’efficacité des tests groupés pour une détection massive et quotidienne des porteurs du virus. Dans cette étude, nous abordons le problème de la conception des groupes. Spécifiquement, nous cherchons à optimiser la constitution des groupes afin de garantir une précision fiable en termes de faux négatifs et faux positifs et de satisfaire un ensemble de contraintes notamment sur le budget et sur la taille maximale des groupes à tester (cf. Almeftah et al. [1]).

Comme dans Aprahamian et al. [2], le problème de la conception des groupes peut être modélisé comme un problème de plus court chemin sous contraintes, qui peut être résolu en temps polynomial grâce au caractère acyclique du graphe considéré. Les résultats préliminaires de nos recherches sur des données agrégées anonymisées de Santé Publique France et du CHU de Lille sont prometteuses. En effet, l’algorithme proposé est capable de fournir des solutions qui réduisent le nombre de tests jusqu’à la moitié par rapport à une stratégie de dépistage individuelle en des temps de calcul très courts. La perspective principale de ce travail est d’étudier la possibilité d’améliorer davantage les résultats des tests groupés en concevant une classification plus pertinente de la population testée.

[1]Almeftah, T., Brotcorne, L., Cattaruzza, D., Fortz, B., Keita, K., Labbé, M., Ogier, M., et Semet, F. (2020). Group design in group testing for COVID-19: A French casestudy , INRIA-Centre Lille Nord Europe. arXiv :2011.06927 (2020).
[2]H. Aprahamian, D. R. Bish, E. K. Bish, Optimal risk-based group testing, Management Science 65 (9) (2018) 4365–4384, https://doi.org/10.1287/mnsc.2018.3138.

Intelligence Artificielle   

1. Conception de topologie à débit optimal pour un apprentissage fédéré entre silos,
par Othmane Marfoq, équipe-projet Neo, Inria Sophia-Antipolis – Méditerranée

Résumé :  L’apprentissage fédéré utilise généralement une architecture client-serveur dans laquelle un orchestrateur agrège de manière itérative les mises à jour de modèle à partir de clients distants et leurs envoie un modèle raffiné. Cette approche peut s’avérer inefficace dans les configurations inter-silos, car des silos de données proches avec des liens d’accès à haut débit peuvent échanger des informations plus rapidement qu’avec l’orchestrateur, et l’orchestrateur peut devenir un goulot d’étranglement de communication. Dans cette présentation, nous définissons le problème de la conception de la topologie pour l’apprentissage fédéré entre silos en utilisant la théorie des systèmes linéaires max-plus pour calculer le débit du système (nombre de tours de communication par unité de temps). Nous proposons également des algorithmes pratiques qui, grâce à la connaissance de caractéristiques de réseau mesurables, trouvent une topologie ayant un  débitoptimal ou avec des garanties d’optimalité de débit prouvables. Dans les réseaux Internet réalistes avec des liaisons d’accès de 10 Gbit/s pour les silos, nos algorithmes accélèrent l’apprentissage d’un facteur de 9 et 1,5 par rapport à l’architecture client-serveur et à l’état de l’art MATCHA, respectivement. Les accélérations sont encore plus importantes avec des liens d’accès plus lents.

2. Apprentissage automatique d’automates temporisés à partir de séries temporelles,
par Lénaïg Cornanguer, équipe-projet Lacodam, Inria Rennes – Bretagne Atlantique

Résumé : De nombreux systèmes produisent au cours de leur fonctionnement des volumes importants de logs horodatés. Analyser ces logs peut permettre une meilleure compréhension du fonctionnement de ces systèmes. Toutefois, la plupart des méthodes actuelles permettent d’avoir une analyse fine de ces données (par exemple pour de la prédiction), mais sont des boîtes noires, ou bien produisent des modèles interprétables, mais ont une expressivité limitée, en particulier pour la gestion du temps. Dans ce travail, nous proposons d’apprendre des automates temporisés à partir de logs. Ce modèle très expressif combine une gestion fine des contraintes temporelles à une représentation graphique compréhensible par un humain.

Venez découvrir notre algorithme et constater, grâce à lui, qu’il ne faut pas laisser son enfant trop longtemps devant la télévision canadienne !

 

Informatique quantique

1. Calcul quantique par mesures et problématiques,
par Robert Booth, équipe-projet Mocqua, Inria Nancy – Grand Est

Résumé : Le calcul quantique par mesure est un modèle de calcul quantique irréversible dans lequel les opérations sont implémentées par des mesures destructives sur un système ressource préparé en amont. Par leur description quantique, ces mesures sont intrinsèquement probabilistes et détruisent la nature quantique du système. Ces propriétés n’étant pas désirables, il faut donc trouver des stratégies pour recouvrir un calcul quantique déterministe.  J’expliciterais un modèle simplifié du calcul par mesure, avant de survoler quelques problématiques et applications.

2. Circuits Quantique et modèles de calcul quantique
par Kostia Chardonnet, équipe-projet Toccata, Inria Saclay – Île-de-France

Résumé : Le modèle standard du calcul quantique est le modèle QRAM, dans lequel un ordinateur classique est connecté à une co-processeur quantique. Le calcul quantique consiste en une suite d’instructions, des portes quantique, qui sont envoyées depuis l’ordinateur classique au co-processeur.

Dans le co-processeur uniquement la donnée est quantique : le contrôle flot (l’ordre dans lequel les
portes quantiques sont appliquées) est entièrement géré par l’ordinateur classique. Néanmoins, il a été montré que certaines opérations comme le fameux Quantum Switch n’est pas implémentable dans ce modèle, alors qu’il est physiquement réalisable, ceci ouvre la voie a de nouveaux modèles pour le calcul quantique.

 

Environnement & numérique

1. Méthodes de réduction de modèle basées sur la projection pour la mécanique non linéaire avec variables internes : application aux systèmes thermo-hydro-mécaniques
Par Guilia Sambatoro, équipe-projet Memphis, Inria Bordeaux – Sud-Ouest

Résumé : Nous proposons une procédure de réduction de modèle monolithique basée sur la projection pour une classe de problèmes de mécanique non linéaire avec variables internes. Le travail est motivé par des applications aux systèmes thermo-hydro-mécaniques (THM) pour la gestion des déchets radioactifs. Les équationsTHM modélisent le comportement de la température, de la pression de l’eau interstitielle et du déplacement des solides autour des dépôts géologiques, qui contiennent les déchets radioactifs et qui sont responsables du flux thermique.

Pour cette classe de problèmes, nous développons une stratégie d’échantillonnage adaptative basée sur la méthode POD-Greedy, et nous développons une hyper-réduction en quadrature empirique pour réduire les coûts de calcul. On présente aussi des résultats numériques pour un système THM bidimensionnel afin d’illustrer et de valider la méthodologie proposée.

2. Validité et robustesse des modèles de risques systémiques globaux : l’exemple de World3,
par Mathilde du Plessix, équipe-projet Steep, Inria Grenoble – Rhône-Alpes

Résumé : La question des limites de la croissance de nos sociétés modernes a été soulevée à grande échelle pour la première fois tant dans le milieu scientifique que dans le grand public par la publication du « rapport Meadows » (Limits to Growth, Universe Books, 1972), il y a plus d’une quarantaine d’années. Cette question porte notamment sur l’interconnexion généralisée de tous les pans d’activité humaine, à l’échelle globale. Cette interconnexion s’accélère depuis le tournant des années 1950 et pose des questionsde disponibilité des ressources, d’augmentation des pollutions diffuses, et plus généralement de risques liés à cette interconnexion pour les sociétés modernes. Ces questions font l’objet d’une attention croissante dans différentes disciplines, académiques, tant en sciences de l’environnement qu’en sciences humaines et sociales.

Dans ce paysage multidisciplinaire, le modèle World3, sur lequel est basé Limits to Growth, conserve une importance particulière malgré l’émergence de quelques autres modèles dynamiques globaux au fil du temps. Cette importance est liée en particulier à l’équilibre qu’il établit entre sophistication et généricité des choix de modélisation. De fait, le regain d’intérêt pour ce modèle s’est amplifié depuis le tournant des années 2000, notamment suite à une relecture plus objective de son contenu par différents chercheurs de sciences humaines et de sciences dures ; de ce point de vue l’étude de Turner (Global Environmental Change, 2008, 18, 397-411) a marqué un tournant important dans l’évaluation de ce modèle.

Néanmoins, et malgré ces travaux récents, les modèles dynamiques globaux souffrent toujours d’un déficit d’analyse de leur fiabilité et de la robustesse de leurs conclusions, tant sur le plan épistémologique que sur celui de leur mathématisation. Ce déficit est d’autant plus critique à la lumière de l’intérêt qu’ils suscitent et des discussions quelquefois polémiques dont ils font l’objet. C’est le cas pour World3, et l’objet de cette thèse est de remédier à cet état de fait par une analyse rigoureuse des faiblesses et de la robustesse du modèle et de ses conclusions qualitatives et quantitatives.

 

Les commentaires sont clos.