

{"id":1687,"date":"2024-01-18T16:59:50","date_gmt":"2024-01-18T15:59:50","guid":{"rendered":"https:\/\/project.inria.fr\/emergences\/?p=1687"},"modified":"2025-06-18T11:19:47","modified_gmt":"2025-06-18T09:19:47","slug":"sechapper-du-peloton-grace-a-la-realite-etendue","status":"publish","type":"post","link":"https:\/\/project.inria.fr\/emergences\/sechapper-du-peloton-grace-a-la-realite-etendue\/","title":{"rendered":"S\u2019\u00e9chapper du peloton gr\u00e2ce \u00e0 la r\u00e9alit\u00e9 \u00e9tendue"},"content":{"rendered":"<p> <script type=\"text\/javascript\" src=\"https:\/\/platform-api.sharethis.com\/js\/sharethis.js#property=65f83003594b6100125a1eeb&amp;product=sop\" async=\"async\"><\/script><\/p>\n\n\n<h6 class=\"wp-block-heading\">On la d\u00e9signe sous le signe XR. La r\u00e9alit\u00e9 \u00e9tendue se situe au carrefour de la r\u00e9alit\u00e9 virtuelle et de la r\u00e9alit\u00e9 augment\u00e9e. Cet espace hybride partag\u00e9 accueille \u00e0 la fois des avatars, incarnations d\u2019humains r\u00e9els, et des humains virtuels autonomes souvent charg\u00e9s d\u2019effectuer des t\u00e2ches. Le projet europ\u00e9en ShareSpace ambitionne de conf\u00e9rer aux uns et aux autres de meilleures facult\u00e9s d\u2019interaction sociale en s\u2019appuyant pour ce faire sur la communication sensorimotrice humaine et sur une architecture cognitive pilot\u00e9e par Intelligence Artificielle. Dans ce contexte, au Centre Inria de l\u2019Universit\u00e9 de Rennes, l\u2019\u00e9quipe MimeTIC \u00e9labore un cas d\u2019usage o\u00f9 des coureurs cyclistes vont s\u2019entra\u00eener \u00e0 r\u00e9ussir leur \u00e9chapp\u00e9e du peloton. &nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<\/h6>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/cycling-1814362_1280.jpg\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"682\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/cycling-1814362_1280-1024x682.jpg\" alt=\"\" class=\"wp-image-1785\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/cycling-1814362_1280-1024x682.jpg 1024w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/cycling-1814362_1280-300x200.jpg 300w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/cycling-1814362_1280-768x512.jpg 768w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/cycling-1814362_1280-600x400.jpg 600w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/cycling-1814362_1280-150x100.jpg 150w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/cycling-1814362_1280.jpg 1280w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption><sub>Pixabay<\/sub><\/figcaption><\/figure>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Dans le cyclisme de comp\u00e9tition, on appelle cela l\u2019\u00e9chapp\u00e9e. C\u2019est un moment cl\u00e9 o\u00f9 le coureur d\u2019une \u00e9quipe va tenter de s\u2019\u00e9jecter du peloton en se glissant dans la roue d\u2019un co\u00e9quipier qui d\u00e9marre brusquement une attaque devant lui. Il va ainsi profiter de son appel d\u2019air pour s\u2019en aller chercher la victoire. Cette chor\u00e9graphie bien huil\u00e9e repose sur l\u2019effet de surprise. Elle exige une parfaite synchronisation entre les deux protagonistes. Le coureur doit guetter le d\u00e9marrage de son co\u00e9quipier pour se lancer au plus vite derri\u00e8re lui. Comment r\u00e9ussir cette man\u0153uvre ? En d\u00e9tectant le plus t\u00f4t possible les signaux faibles qui annoncent le d\u00e9part de l\u2019action. Mais avec une contrainte suppl\u00e9mentaire : l\u2019attaquant doit masquer son intention aux adversaires. Car il ne faut pas que ceux-ci puissent anticiper ce qui va se produire.<\/p>\n\n\n\n<p>Pour aider le coureur \u00e0 aff\u00fbter son sens de l\u2019observation et \u00e0 mieux d\u00e9tecter ces signaux annonciateurs de l\u2019attaque, des chercheurs du Centre Inria de l\u2019Universit\u00e9 de Rennes, en collaboration avec le laboratoire <a href=\"https:\/\/m2slab.com\/\" data-type=\"URL\" data-id=\"https:\/\/m2slab.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">M2S<\/a> de l\u2019Universit\u00e9 Rennes 2, \u00e9laborent actuellement un dispositif innovant de formation par r\u00e9alit\u00e9 \u00e9tendue.<\/p>\n\n\n\n<p>Sp\u00e9cialis\u00e9e dans l\u2019analyse et la synth\u00e8se du mouvement pour la simulation d\u2019humains virtuels, l\u2019\u00e9quipe de recherche <a rel=\"noreferrer noopener\" href=\"https:\/\/team.inria.fr\/mimetic\/\" data-type=\"URL\" data-id=\"https:\/\/team.inria.fr\/mimetic\/\" target=\"_blank\">MimeTIC<\/a>* s\u2019est forg\u00e9e un nom dans les m\u00e9thodes immersives au service de la sant\u00e9, de l\u2019ergonomie, mais aussi du sport. Dans le domaine du football, par exemple, les scientifiques ont con\u00e7u une simulation utilis\u00e9e aujourd\u2019hui par le Stade Rennais pour entra\u00eener les gardiens de but \u00e0 mieux suivre la situation de jeu avant un tir au but, ou optimiser le placement d\u2019un mur en situation de coup-franc.<\/p>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"has-vivid-red-color has-text-color wp-block-heading\" style=\"font-size:18px\">Les informations transport\u00e9es par les mouvements du corps<\/h2>\n\n\n\n<div style=\"height:15px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Les travaux qui d\u00e9butent sur le cyclisme s\u2019inscrivent dans le cadre de <a href=\"https:\/\/sharespace.eu\/\" data-type=\"URL\" data-id=\"https:\/\/sharespace.eu\/\" target=\"_blank\" rel=\"noreferrer noopener\">ShareSpace<\/a>. Ce projet europ\u00e9en vise \u00e0 doter les avatars des utilisateurs et les agents virtuels autonomes de capacit\u00e9s d\u2019interaction sociale bas\u00e9es sur la communication sensorimotrice. Autrement dit : tous ces signifiants transport\u00e9s par les mouvements du corps, les expressions faciales ou encore les gestes de la main.<\/p>\n\n\n\n<p>Trois cas d\u2019usages vont illustrer ces travaux. Le premier pour la r\u00e9\u00e9ducation \u00e0 distance de patients souffrant de <a href=\"https:\/\/sharespace.eu\/about\/real-world-scenarios\/sharespace-for-health-low-back-pain-exergame\/\" data-type=\"URL\" data-id=\"https:\/\/sharespace.eu\/about\/real-world-scenarios\/sharespace-for-health-low-back-pain-exergame\/\" target=\"_blank\" rel=\"noreferrer noopener\">mal de dos<\/a>. Le second dans l\u2019univers <a href=\"https:\/\/sharespace.eu\/about\/real-world-scenarios\/sharespace-for-art-shared-creativity\/\" data-type=\"URL\" data-id=\"https:\/\/sharespace.eu\/about\/real-world-scenarios\/sharespace-for-art-shared-creativity\/\" target=\"_blank\" rel=\"noreferrer noopener\">artistique<\/a>. Le troisi\u00e8me dans le cadre sportif avec une simulation d\u2019\u00e9chapp\u00e9e de peloton cycliste.<\/p>\n\n\n\n<p>\u201c<em>Aujourd\u2019hui, la r\u00e9alit\u00e9 virtuelle et la r\u00e9alit\u00e9 augment\u00e9e arrivent \u00e0 une certaine maturit\u00e9<\/em>, explique Franck <a href=\"https:\/\/people.irisa.fr\/Franck.Multon\/\" data-type=\"URL\" data-id=\"https:\/\/people.irisa.fr\/Franck.Multon\/\" target=\"_blank\" rel=\"noreferrer noopener\">Multon<\/a>, responsable de MimeTIC. <em>La soci\u00e9t\u00e9 peut donc commencer \u00e0 s\u2019en emparer. C\u2019est d\u2019ailleurs ce qui se passe avec l\u2019arriv\u00e9e des m\u00e9tavers. Des gens vont s\u2019immerger dans ces mondes et interagir entre eux via leurs avatars. Mais nous allons aussi les aider \u00e0 \u00e9voluer dans ces univers en d\u00e9ployant des humains virtuels autonomes qui serviront de collaborateurs ou de guides. Cela peut \u00eatre un personnage qui passe par une porte et sugg\u00e8re ainsi une direction \u00e0 suivre, tout simplement. Et en l\u2019occurrence, l\u2019utilisateur ne sait pas forc\u00e9ment qu\u2019il s\u2019agit d\u2019un humain virtuel autonome. Il le consid\u00e8re parfois comme l\u2019incarnation de quelqu\u2019un existant vraiment.<\/em>\u201d<\/p>\n\n\n\n<p>Le projet ShareSpace s\u2019int\u00e9resse \u00e0 l\u2019interaction sociale dans ces espaces hybrides partag\u00e9s, o\u00f9 vont donc \u00e9voluer \u201c<em>des incarnations de vrais humains, des humains compl\u00e8tement virtuels pilot\u00e9s par Intelligence Artificielle, mais aussi des repr\u00e9sentations de vrais humains dont on a modifi\u00e9 le mouvement pour faciliter l\u2019interaction avec les autres. On peut ainsi exag\u00e9rer des caract\u00e9ristiques du geste d\u2019un participant, via son avatar, pour que ces caract\u00e9ristiques soient plus visibles par les autres. Ces derniers peuvent alors mieux collaborer avec lui car ils comprennent ses actions et ses intentions. <\/em>\u201d Dans certaines situations, l\u2019information livr\u00e9e par la gestuelle est bien disponible pour comprendre l\u2019action d\u2019un individu, mais pas per\u00e7ue par les autres, ce qui alt\u00e8re la collaboration entre eux.<\/p>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"has-vivid-red-color has-text-color wp-block-heading\" style=\"font-size:18px\">Amplifier les signaux faibles<\/h2>\n\n\n\n<div style=\"height:15px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>C\u2019est sur ce ressort que les scientifiques vont construire leur s\u00e9quence d\u2019entra\u00eenement pour le coureur cycliste. \u201c<em>Quand l\u2019attaquant s\u2019appr\u00eate \u00e0 d\u00e9marrer, il y a des signaux qui le montrent. Par exemple, le coureur va \u00eatre oblig\u00e9 de changer l\u00e9g\u00e8rement de posture, de s\u2019avancer un peu sur sa selle, de s\u2019appuyer sur le guidon, etc. Mais le co\u00e9quipier qui le suit ne le per\u00e7oit pas forc\u00e9ment. Nous allons identifier et d\u00e9tecter automatiquement ces signes et les amplifier pour que le coureur s\u2019habitue \u00e0 lire cette information. Puis, nous diminuerons cette amplification au fur et \u00e0 mesure de l\u2019apprentissage pour qu\u2019il monte en comp\u00e9tence petit \u00e0 petit au cours de l\u2019entrainement en r\u00e9alit\u00e9 mixte.<\/em>\u201d<\/p>\n\n\n\n<p>Par ailleurs, en t\u00eate de peloton, se trouvera un humain virtuel autonome pilot\u00e9 par IA. \u201c<em>Comme dans la vraie vie, \u00e0 un moment donn\u00e9, il va donner des signes de fatigue. L\u2019attaquant va devoir, lui aussi, rep\u00e9rer ces signes qui indiquent un moment propice pour d\u00e9clencher son attaque.<\/em>\u201d<\/p>\n\n\n\n<p>Des exp\u00e9rimentations commencent actuellement \u00e0 Rennes pour capturer les mouvements des cyclistes durant l\u2019\u00e9chapp\u00e9e. Objectif : identifier les variables sensorimotrices qui sont \u00e0 l\u2019\u0153uvre. \u201c<em>Ces enregistrements vont permettre aussi de remonter dans le temps et de mesurer \u00e0 partir de quel instant la gestuelle de l\u2019attaquant est alt\u00e9r\u00e9e avant m\u00eame de lancer l\u2019attaque. Donc, \u00e0 partir de quand l\u2019information est disponible, m\u00eame si le coureur qui le suit, lui, ne la d\u00e9tecte peut-\u00eatre pas encore.<\/em>\u201d<\/p>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-1 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1712\" height=\"1010\" data-id=\"1760\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4.png\" alt=\"\" class=\"wp-image-1760\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4.png 1712w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4-300x177.png 300w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4-1024x604.png 1024w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4-768x453.png 768w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4-600x354.png 600w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4-1536x906.png 1536w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4-150x88.png 150w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_4-1320x779.png 1320w\" sizes=\"auto, (max-width: 1712px) 100vw, 1712px\" \/><\/a><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1828\" height=\"985\" data-id=\"1761\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5.png\" alt=\"\" class=\"wp-image-1761\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5.png 1828w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5-300x162.png 300w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5-1024x552.png 1024w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5-768x414.png 768w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5-600x323.png 600w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5-1536x828.png 1536w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5-150x81.png 150w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_5-1320x711.png 1320w\" sizes=\"auto, (max-width: 1828px) 100vw, 1828px\" \/><\/a><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1873\" height=\"996\" data-id=\"1762\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6.png\" alt=\"\" class=\"wp-image-1762\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6.png 1873w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6-300x160.png 300w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6-1024x545.png 1024w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6-768x408.png 768w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6-600x319.png 600w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6-1536x817.png 1536w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6-150x80.png 150w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/Capture_6-1320x702.png 1320w\" sizes=\"auto, (max-width: 1873px) 100vw, 1873px\" \/><\/a><\/figure>\n<figcaption class=\"blocks-gallery-caption\"><sub>\u00a9Inria \/ Julian Joseph. Capture de mouvements de deux cyclistes simulant des situations d&rsquo;attaque sur une piste s\u00e9curis\u00e9e<\/sub><\/figcaption><\/figure>\n\n\n\n<div style=\"height:15px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-2 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_1.png\"><img loading=\"lazy\" decoding=\"async\" width=\"460\" height=\"537\" data-id=\"1766\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_1.png\" alt=\"\" class=\"wp-image-1766\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_1.png 460w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_1-257x300.png 257w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_1-128x150.png 128w\" sizes=\"auto, (max-width: 460px) 100vw, 460px\" \/><\/a><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_2-e1704719220650.png\"><img loading=\"lazy\" decoding=\"async\" width=\"316\" height=\"380\" data-id=\"1767\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_2-e1704719220650.png\" alt=\"\" class=\"wp-image-1767\"\/><\/a><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_3.png\"><img loading=\"lazy\" decoding=\"async\" width=\"372\" height=\"491\" data-id=\"1768\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_3.png\" alt=\"\" class=\"wp-image-1768\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_3.png 372w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_3-227x300.png 227w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/xsens_3-114x150.png 114w\" sizes=\"auto, (max-width: 372px) 100vw, 372px\" \/><\/a><\/figure>\n<figcaption class=\"blocks-gallery-caption\"><sub>Visualisation de la capture de mouvements avec le logiciel Xsens\u00ae MVN animate<\/sub><\/figcaption><\/figure>\n\n\n\n<div style=\"height:15px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Avec les autres partenaires du projet, les chercheurs rennais vont construire ensuite une mise en situation pour comprendre comment cette prise d\u2019information sur l\u2019attaquant s\u2019effectue en r\u00e9el. \u201c<em>Le coureur regardera une vid\u00e9o que l\u2019on pourra interrompre \u00e0 tout moment, tout en demandant au participant s\u2019il pense que la suite est une attaque ou pas. Cela va nous permettre d\u2019identifier \u00e0 quel instant et \u00e0 partir de quel signe le coureur comprend que l\u2019attaque de son co\u00e9quipier devant lui a d\u00e9but\u00e9. Il a peut-\u00eatre vu son co\u00e9quipier commencer \u00e0 se redresser sur sa selle. Mais juste avant, il a peut-\u00eatre manqu\u00e9 le d\u00e9placement des mains sur le guidon. Ainsi, nous allons dresser une cartographie de l\u2019information disponible et de ce que les cyclistes per\u00e7oivent vraiment.<\/em>\u201d<\/p>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"has-vivid-red-color has-text-color wp-block-heading\" style=\"font-size:18px\">Visio-casque et ergocycle<\/h2>\n\n\n\n<div style=\"height:15px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:40%\">\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-scaled.jpg\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"974\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-1024x974.jpg\" alt=\"\" class=\"wp-image-1777\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-1024x974.jpg 1024w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-300x285.jpg 300w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-768x730.jpg 768w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-600x570.jpg 600w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-1536x1460.jpg 1536w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-2048x1947.jpg 2048w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-150x143.jpg 150w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/IMG20220622155528-1320x1255.jpg 1320w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption><sub>\u00a9Inria \/ Valentin Ramel<\/sub><br> <sup>Cycliste \u00e9voluant dans un environnement virtuel gr\u00e2ce \u00e0 un casque de r\u00e9alit\u00e9 virtuelle et d&rsquo;un home-trainer connect\u00e9<\/sup><\/figcaption><\/figure>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:66.66%\">\n<p>Pour les s\u00e9quences d\u2019entra\u00eenement, les scientifiques vont ensuite explorer deux approches. Dans la premi\u00e8re, tout se d\u00e9roule en r\u00e9alit\u00e9 virtuelle. Un casque de r\u00e9alit\u00e9 virtuelle sur les yeux, trois cyclistes co\u00e9quipiers p\u00e9dalent sur un ergocycle. Tous les trois sont repr\u00e9sent\u00e9s par leur avatar et sont donc visibles pour tout le monde. Pour capter les mouvements du corps, les scientifiques pr\u00e9voient d\u2019utiliser le stricte minimum de capteurs inertiels. \u201c<em>L\u2019IA va permettre de reconstruire la posture compl\u00e8te de l\u2019avatar avec tr\u00e8s peu de donn\u00e9es : les pieds, les mains, la t\u00eate.<\/em>\u201d On rejoint ici un enjeu sous-jacent du projet : \u201c<em>pour que ce type d\u2019applications puisse se d\u00e9mocratiser, il faut \u00e9viter de recourir \u00e0 des dispositifs de capture trop<\/em> on\u00e9reux\u00a0\u00bb<\/p>\n<\/div>\n<\/div>\n\n\n\n<div class=\"wp-block-columns is-layout-flex wp-container-core-columns-is-layout-9d6595d7 wp-block-columns-is-layout-flex\">\n<div class=\"wp-block-column is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:70%\">\n<p><\/p>\n\n\n\n<p>D\u00e9fi technique suppl\u00e9mentaire : \u201c<em>avec un v\u00e9lo pos\u00e9 sur un home-trainer, on ne peut ni tourner, ni s\u2019incliner comme on le ferait dans la r\u00e9alit\u00e9. Il nous faut donc introduire une m\u00e9taphore qui permet aux participants en r\u00e9alit\u00e9 virtuelle de commander la vitesse et la direction du v\u00e9lo dans ces conditions contraignantes. Gr\u00e2ce \u00e0 l\u2019IA, nous allons alors transformer cette commande en mouvement coh\u00e9rent de leurs avatars, tel qu\u2019ils l\u2019auraient fait eux-m\u00eames dans la r\u00e9alit\u00e9, pour la m\u00eame vitesse et le m\u00eame virage.<\/em> \u201d<\/p>\n<\/div>\n\n\n\n<div class=\"wp-block-column is-vertically-aligned-center is-layout-flow wp-block-column-is-layout-flow\" style=\"flex-basis:30%\">\n<figure class=\"wp-block-gallery has-nested-images columns-default is-cropped wp-block-gallery-3 is-layout-flex wp-block-gallery-is-layout-flex\">\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_face_avatar.png\"><img loading=\"lazy\" decoding=\"async\" width=\"177\" height=\"480\" data-id=\"1765\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_face_avatar.png\" alt=\"\" class=\"wp-image-1765\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_face_avatar.png 177w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_face_avatar-111x300.png 111w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_face_avatar-55x150.png 55w\" sizes=\"auto, (max-width: 177px) 100vw, 177px\" \/><\/a><\/figure>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_dos_avatar.png\"><img loading=\"lazy\" decoding=\"async\" width=\"151\" height=\"434\" data-id=\"1764\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_dos_avatar.png\" alt=\"\" class=\"wp-image-1764\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_dos_avatar.png 151w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_dos_avatar-104x300.png 104w, https:\/\/project.inria.fr\/emergences\/files\/2024\/01\/vue_dos_avatar-52x150.png 52w\" sizes=\"auto, (max-width: 151px) 100vw, 151px\" \/><\/a><\/figure>\n<figcaption class=\"blocks-gallery-caption\"><sub>Mod\u00e8le 3D d&rsquo;un cycliste et de son v\u00e9lo, qui sera incarn\u00e9 par l&rsquo;utilisateur en r\u00e9alit\u00e9 virtuelle<\/sub><\/figcaption><\/figure>\n<\/div>\n<\/div>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"has-vivid-red-color has-text-color wp-block-heading\" style=\"font-size:18px\">En r\u00e9alit\u00e9 augment\u00e9e sur une route de campagne<\/h2>\n\n\n\n<div style=\"height:15px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Dans une phase deux, les scientifiques veulent organiser cet entra\u00eenement en r\u00e9alit\u00e9 augment\u00e9e. \u201c<em>Cette fois-ci, le coureur p\u00e9dale sur un vrai v\u00e9lo. Il roule tout seul sur une route de campagne. Il porte des lunettes de r\u00e9alit\u00e9 augment\u00e9e et, en superposition, il voit d\u2019autres cyclistes comme s\u2019ils \u00e9taient l\u00e0, formant le peloton autour de lui, alors qu\u2019en fait ceux-ci p\u00e9dalent sur leur home-trainer \u00e0 la maison, ou sont des humains virtuels autonomes pilot\u00e9s par IA. Cela va donc permettre \u00e0 des partenaires distants de, malgr\u00e9 tout, s\u2019entrainer ensemble. L\u00e0 aussi, le coureur pourra jouer le r\u00f4le d\u2019attaquant et permettre \u00e0 ses co\u00e9quipiers distants de s\u2019entrainer \u00e0 capter les informations qui anticipent son attaque, cette fois avec ses vrais mouvements directement jou\u00e9s sur son avatar, sans avoir besoin de m\u00e9taphore.<\/em> \u201d<\/p>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"has-vivid-red-color has-text-color wp-block-heading\" style=\"font-size:18px\">Architecture cognitive bas\u00e9e IA<\/h2>\n\n\n\n<div style=\"height:15px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Ce deuxi\u00e8me dispositif pr\u00e9sente quelques d\u00e9fis. \u00c0 commencer par le fait que les autres cyclistes doivent voir la route au m\u00eame moment que le coureur. \u201c<em>Avec le <a href=\"https:\/\/www.dfki.de\/en\/web\/\" data-type=\"URL\" data-id=\"https:\/\/www.dfki.de\/en\/web\/\" target=\"_blank\" rel=\"noreferrer noopener\">DFKI<\/a> et <a href=\"https:\/\/www.ricoh-europe.com\/\" data-type=\"URL\" data-id=\"https:\/\/www.ricoh-europe.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">Ricoh<\/a>, nous travaillons sur un syst\u00e8me de cam\u00e9ras 360\u00b0 embarqu\u00e9es sur le v\u00e9lo. Le coureur fait un premier passage pour nous permettre de capturer un tunnel d\u2019images \u00e0 360\u00b0. Chez eux, les cyclistes vont ensuite t\u00e9l\u00e9charger ces images afin de pouvoir \u00e9voluer \u00e9galement dans ce tunnel.<\/em>\u201d Chacun devra percevoir le circuit en fonction de sa position \u00e0 chaque instant. \u201c<em>Nos coll\u00e8gues du DFKI ont des r\u00e9sultats pr\u00e9liminaires l\u00e0-dessus en environnement ferm\u00e9. Maintenant, il faut r\u00e9ussir \u00e0 les reproduire, dehors, sur une route.<\/em>\u201d<\/p>\n\n\n\n<p>La simulation est ensuite orchestr\u00e9e par une architecture cognitive bas\u00e9e sur IA et d\u00e9velopp\u00e9e par le partenaire universitaire italien <a href=\"https:\/\/www.crdctecnologie.it\/\" data-type=\"URL\" data-id=\"https:\/\/www.crdctecnologie.it\/\" target=\"_blank\" rel=\"noreferrer noopener\">CRdC<\/a>. Agissant comme une bo\u00eete noire, \u201c<em>cette brique d\u00e9tecte, par exemple, que des informations sont disponibles et d\u00e9cide de les amplifier ou pas. Elle prend en entr\u00e9e les mouvements r\u00e9els et donne en sortie les mouvements que l\u2019avatar doit faire pour que ceux-ci soient plus facilement d\u00e9tect\u00e9s.<\/em>\u201d Cette IA fonctionne \u00e0 partir des primitives sensorimotrices mise en \u00e9vidence par MimeTIC, en collaboration avec les partenaire allemand (<a href=\"http:\/\/www.uk-eppendorf.de\/\" data-type=\"URL\" data-id=\"http:\/\/www.uk-eppendorf.de\/\" target=\"_blank\" rel=\"noreferrer noopener\">UKE<\/a>) et fran\u00e7ais (<a href=\"https:\/\/www.umontpellier.fr\/\" data-type=\"URL\" data-id=\"https:\/\/www.umontpellier.fr\/\" target=\"_blank\" rel=\"noreferrer noopener\">Universit\u00e9 de Montpellier<\/a>), sp\u00e9cialistes en neurosciences. \u201c<em>Nous allons \u00eatre capables de dire que les coureurs prennent leur d\u00e9cision sur tel signe, qu\u2019ils per\u00e7oivent telle chose et ne voient pas telle autre.\u201d<\/em><\/p>\n\n\n\n<p>Parmi les partenaires industriels du projet figure aussi <a href=\"https:\/\/golaem.com\/\" data-type=\"URL\" data-id=\"https:\/\/golaem.com\/\" target=\"_blank\" rel=\"noreferrer noopener\">Golaem<\/a>. Cofond\u00e9e par l\u2019ancien chercheur Inria St\u00e9phane Donikian en 2009, cette entreprise rennaise con\u00e7oit des logiciels d\u2019animation permettant de programmer des personnages autonomes pour cr\u00e9er des figurants et des <a href=\"https:\/\/project.inria.fr\/emergences\/golaem-remporte-un-emmy-award-pour-ses-outils-de-simulation-de-foules\/\" data-type=\"URL\" data-id=\"https:\/\/project.inria.fr\/emergences\/golaem-remporte-un-emmy-award-pour-ses-outils-de-simulation-de-foules\/\" target=\"_blank\" rel=\"noreferrer noopener\">foules au cin\u00e9ma<\/a>. \u201c<em>Dans ShareSpace, Golaem nous fournit le pipeline graphique pour l\u2019animation des humains virtuels. En particulier le retargeting. Cela consiste \u00e0 adapter les mouvements qui doivent \u00eatre effectu\u00e9s \u00e0 la morphologie du personnage virtuel. Si le personnage est petit, par exemple, il faut quand m\u00eame qu\u2019il puisse toucher les p\u00e9dales. Dans ce domaine, Golaem poss\u00e8de un moteur hyper efficace qui produit de l\u2019animation de tr\u00e8s haute qualit\u00e9<\/em>.\u201d<\/p>\n\n\n\n<p>\u00c0 qui s\u2019adressera ce dispositif immersif ? \u201c<em>Plut\u00f4t aux centres de formation. Nous allons cr\u00e9er un comit\u00e9 consultatif pour associer les entra\u00eeneurs, les sportifs de haut niveau, la F\u00e9d\u00e9ration, la Ligue, etc.<\/em>\u201d Le grand public pourra aussi essayer un premier d\u00e9monstrateur durant les Jeux Olympique de Paris 2024 puis ensuite pendant le Tour de France 2025.<\/p>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<figure class=\"wp-block-video\"><video controls src=\"https:\/\/files.inria.fr\/emergences_medias\/Podcast Franck Multon.mp4\"><\/video><\/figure>\n\n\n\n<div style=\"height:22px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<ul class=\"has-white-color has-text-color has-background has-small-font-size wp-block-list\" style=\"background-color:#384257\"><li><a href=\"https:\/\/team.inria.fr\/mimetic\/\" data-type=\"URL\" data-id=\"https:\/\/team.inria.fr\/mimetic\/\">MimeTIC<\/a>, une \u00e9quipe-projet Inria, ENS Rennes et Universit\u00e9 de Rennes et Universit\u00e9 de Rennes2. Elle fait partie des laboratoires M2S (Mouvement Sport Sant\u00e9 \u2013 EA1274) et Irisa (UMR CNRS 6074).<\/li><\/ul>\n\n\n\n<p><\/p>\n\n\n\n<figure class=\"wp-block-image size-full is-resized\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/normal-reproduction-low-resolution.jpg\"><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/normal-reproduction-low-resolution.jpg\" alt=\"\" class=\"wp-image-979\" width=\"159\" height=\"106\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/normal-reproduction-low-resolution.jpg 600w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/normal-reproduction-low-resolution-300x201.jpg 300w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/normal-reproduction-low-resolution-150x100.jpg 150w\" sizes=\"auto, (max-width: 159px) 100vw, 159px\" \/><\/a><figcaption><sub>This project has received funding from the European Union\u2019s research and innovation program Horizon Europe under grant agreement No 10192889<\/sub><\/figcaption><\/figure>\n\n\n<p><!-- ShareThis BEGIN --><\/p>\n<div class=\"sharethis-inline-share-buttons\">\u00a0<\/div>\n<p><!-- ShareThis END --><\/p>","protected":false},"excerpt":{"rendered":"<p>On la d\u00e9signe sous le signe XR. La r\u00e9alit\u00e9 \u00e9tendue se situe au carrefour de la r\u00e9alit\u00e9 virtuelle et de la r\u00e9alit\u00e9 augment\u00e9e. Cet espace hybride partag\u00e9 accueille \u00e0 la fois des avatars, incarnations d\u2019humains r\u00e9els, et des humains virtuels autonomes souvent charg\u00e9s d\u2019effectuer des t\u00e2ches. Le projet europ\u00e9en ShareSpace\u2026<\/p>\n<p> <a class=\"continue-reading-link\" href=\"https:\/\/project.inria.fr\/emergences\/sechapper-du-peloton-grace-a-la-realite-etendue\/\"><span>En savoir plus<\/span><i class=\"crycon-right-dir\"><\/i><\/a> <\/p>\n","protected":false},"author":132,"featured_media":1785,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7],"tags":[43],"class_list":["post-1687","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-recherche","tag-43"],"_links":{"self":[{"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/posts\/1687","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/comments?post=1687"}],"version-history":[{"count":53,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/posts\/1687\/revisions"}],"predecessor-version":[{"id":2522,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/posts\/1687\/revisions\/2522"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/media\/1785"}],"wp:attachment":[{"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/media?parent=1687"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/categories?post=1687"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/tags?post=1687"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}