In’Tro (6 septembre 2021, 13h00): Apprentissage statistique pour le contrôle de simulations physiques – Guillaume Cordonnier (Graphdeco)

Revoir la présentation

Abstract


Le contrôle donné à l’utilisateur revêt une importance grandissante en informatique graphique, dont l’objet est à la fois de proposer des algorithmes de génération d’images à l’aide de l’ordinateur et d’en simplifier la création et l’édition. Je m’intéresse en particulier aux objets issus d’un processus physique : soit animés par des lois physiques (par exemple les fluides), soit issus de lois naturelles (paysages de montagnes). L’état de l’art s’est développé autour de méthodes directes, par essais-erreurs, nécessitant donc de longues et coûteuses itérations. Je vais présenter mes thématiques de recherche visant à améliorer ce contrôle autour de deux axes majeurs : les mécaniques de contrôle inverse permettant de contraindre directement le résultat des simulations, et la conception de nouveaux simulateurs, approximatifs, permettant un retour en temps interactif notamment grâce à l’apprentissage profond.

Bio
Elève de l’ENS Lyon, Guillaume Cordonnier a obtenu son diplôme de master de Grenoble INP, puis une thèse de l’université Grenoble Alpes, spécialisée en informatique graphique, sous la direction de Marie-Paule Cani et Éric Galin. Il a ensuite effectué deux postdocs, un court à l’Ecole polytechnique dans le cadre d’une chair avec Google, suivi de deux ans à l’ETH Zurich, où il a enrichi ses connaissances en apprentissage statistique et simulation de fluides. Ses recherches dans différents champs de la simulation visuelle de processus physiques l’ont conduit à ouvrir des collaborations dépassant sa discipline scientifique, tel que les géosciences ou la paléontologie.

The presentation will be in English and streamed on BBB

In’Tro (22 juin 2021, 13h00): Le défi de la modélisation géométrique automatisée d’objets structurés – Florent Lafarge (TITANE)

Résumé

La modélisation géométrique est devenue un composante indispensable dans la quête vers la numérisation 3D de notre monde. Si la modélisation géométrique d’objets de forme libre possède déjà des outils matures, la modélisation géométrique d’objets structurés, tels que des bâtiments, des meubles ou des pièces mécaniques, est loin derrière. Mesurer la qualité de tels modèles ne prend pas seulement en compte la précision géométrique comme pour les objets de forme libre, mais nécessite des critères supplémentaires tels que la complexité du modèle, la préservation des régularités géométriques ou encore la sémantique des objets.

Dans cet exposé, je présenterai le défi de la modélisation géométrique automatisée d’objets structurés et discuterai les axes de recherche importants pour concevoir des algorithmes i) robustes à des mesures de données imparfaites et hétérogènes, ii) personnalisables selon les besoins de l’utilisateur, et iii) permettant de traiter des volumes de données élevés.

Courte bio

Florent Lafarge est chercheur à Inria dans l’équipe-projet Tirane depuis 2010. Il a obtenu son doctorat en mathématiques appliquées à l’Ecole des Mines ParisTech en 2007 et son habilitation (HDR) à l’Université de Nice en 2014. Il a été post-doctorant à l’Université d’Auckland, Nouvelle-Zélande, en 2008 et à l’Ecole des Ponts ParisTech en 2009. Ses recherches portent sur la modélisation géométrique d’environnements 3D à partir de mesures de données.

Ses sujets de prédilection sont la reconstruction et l’approximation de surfaces, l’analyse de scènes urbaines, la reconnaissance d’objets et la modélisation probabiliste pour la vision.

La présentation aura lieu en français sur BBB

In’Tro (31 mai 2021, 13h00): Computer Vision for Deciphering and Generating Faces – Antitza Dantcheva (STARS)

Replay the presentation

Summary

The topic of human facial analysis has engaged researchers in multiple fields including computer vision, biometrics, forensics, cognitive psychology and medicine. Interest in this topic has been fueled by scientific advances that suggest insight into a person’s identity, intent, attitude, as well as health; all solely based on their face images and videos. The above leads to the tantalizing question: “What’s in a Face?”

In this talk I will present recent works on face analysis, where we have designed deep convolutional neural networks (CNNs) targeted to extract attributes, emotions, as well as the more complex state of apathy from face videos. While a large body of work has aimed at extracting and classifying such information from faces, currently the inverse problem — namely face generation — has received increased attention. In this context, I will talk about our recent designed generative models, which allow for realistic generation of face images and videos, and the related deepfake detection.

Short Biography
Antitza Dantcheva (Ph.D. ’11 with Télécom ParisTech/Eurecom) is permanent researcher at the STARS team, Inria, Sophia Antipolis – Méditerranée.  Previously, she was a Marie Curie fellow at Inria and a Postdoctoral Fellow at the Michigan State University and the West Virginia University, USA.  In 2017 she received the French National Research Agency (ANR) JCJC young resea
rcher grant for her research project « ENVISION. Automated holistic human analysis ».  Her research is in computer vision and specifically in designing algorithms that seek to learn suitable representations of the human face in interpretation and generation.  She is recipient among others of the Best Poster Award at IEEE FG 2019, winner of the Bias Estimation in Face Analytics (BEFA) Challenge at ECCV 2018 (in the team with Abhijit Das and Francois Bremond) and Best Paper Award (Runner up) at the IEEE International Conference on Identity, Security and Behavior Analysis (ISBA 2017).

The presentation will be held in English on BBB

In’Tro (26 avril 2021, 13h00): Traitements efficaces et responsables pour les données du Web – Damien Graux (WIMMICS)

Revoir à la présentation

 

Résumé

De nos jours, le nombre de jeux de données ouverts disponibles en ligne est suffisamment important pour permettre la conception d’applications complexes. Ces dernières peuvent être développées soit par les citoyens et les gouvernements ou directement par les industries qui peuvent combiner ces jeux de données ouverts avec leurs propres données. Cependant, il est primordial d’aider le citoyen à savoir comment ses données sont utilisées et par qui. Dans un tel contexte, mon projet vise à concevoir de nouvelles méthodes pour permettre les combinaisons des données hétérogènes tout en protégeant l’accès aux données personnelles/confidentielles. Plus généralement, ce projet ouvre la voie à un Web décentralisé où citoyens et acteurs privés s’impliquent ensemble pour construire des applications responsables.

Biographie

Damien est chercheur ISFP à Inria Sophia Antipolis au sein de l’équipe-projet Wimmics depuis janvier 2021. Il contribue aux efforts de recherche sur les technologies du Web Sémantique et se concentre sur l’évaluation des requêtes distribuées et sur la conception de pipelines de transformation complexes pour les larges données hétérogènes. Avant de rejoindre Inria, il a occupé des postes de recherche au Trinity College Dublin (Irlande) et au Fraunhofer IAIS (Allemagne).

 

 

 

 

 

 

 

La présentation se fera en français et se déroulera sur BBB

In’Tro (29 mars 2021, 13h20) : Interactive and Multimedia Storytelling – Helen Hui-Yin Wu (Biovison)

Revoir à la présentation

Abstract

The computational study of storytelling helps us understand and develop new technologies and media that can change the way we create, share, and experience multi-sensory information. Nowadays, interactive storytelling technologies are finding their place beyond entertainment to have wider social implications such as in serious games for training and rehabilitation, interactive journalism, and multimedia curation.

This talk gives an overview of my previous and ongoing work in the context of interactive and multimedia storytelling. The first part focuses on cinematographic storytelling: tools for the analysis and creation of content for film and 3D media. The second part will then turn towards ongoing research themes on understanding human visual attention, and creating attention-driven content for virtual 3D environments targeted towards low-vision rehabilitation, accessibility, and other extended applications.

Short Bio

Dr. Hui-Yin (Helen) Wu is a research scientist in the Biovision team of Inria Sophia-Antipolis. Her current work evolves around the study and development of attention-driven models for 3D content creation.
She conducted her PhD in the MimeTIC team of Inria Rennes under the supervision of Dr. Marc Christie, on the topic of logic control for interactive stories and intelligent cinematographyfor 3D virtual environments. This was followed by a teaching fellow in the University of Rennes 1, a post-doc in the Games and Visual Narrative Lab of North Carolina State University, and a second post-doc in the Biovision team, during which she worked on a joint attention-based automated editing system and accessible news reading design in virtual reality for low-vision patients.