

{"id":952,"date":"2022-05-10T15:16:35","date_gmt":"2022-05-10T13:16:35","guid":{"rendered":"https:\/\/project.inria.fr\/emergences\/?p=952"},"modified":"2022-05-13T13:47:34","modified_gmt":"2022-05-13T11:47:34","slug":"creer-des-simulations-immersives-peuplees","status":"publish","type":"post","link":"https:\/\/project.inria.fr\/emergences\/creer-des-simulations-immersives-peuplees\/","title":{"rendered":"Cr\u00e9er des simulations immersives peupl\u00e9es"},"content":{"rendered":"<p><strong><span style=\"font-family: georgia, palatino, serif; font-size: 12pt;\">Nous immerger au milieu d&rsquo;humains virtuels qui vaquent \u00e0 leurs occupations habituelles pour ensuite \u00e9tudier notre comportement dans ces sc\u00e8nes : telle est la vocation de VirtUS, une nouvelle \u00e9quipe de recherche au centre Inria Rennes \u2013 Bretagne Atlantique. Les scientifiques ont effectu\u00e9 une d\u00e9monstration de leur simulateur lors du dernier salon Laval Virtual. \u00a0\u00a0\u00a0\u00a0\u00a0\u00a0<\/span><\/strong><\/p>\n<hr \/>\n<p>\u201c<em>Si l&rsquo;on vous immerge dans une rue virtuelle, vous vous attendez \u00e0 voir des gens qui se prom\u00e8nent, d&rsquo;autres qui font du shopping ou bien encore des personnes qui discutent. Si vous \u00eates immerg\u00e9 dans une gare, alors ce sont des voyageurs qui s&rsquo;appr\u00eatent \u00e0 prendre un train, des amis qui les accompagnent, mais aussi des gens venant simplement acheter des cigarettes au bureau de tabac dans le hall qui doivent figurer. Notre \u00e9quipe s&rsquo;int\u00e9resse \u00e0 la fa\u00e7on dont on peuple ces environnements sp\u00e9cifiques avec des alter egos virtuels se comportant comme dans la vraie vie,<\/em>\u201d r\u00e9sume le chercheur Julien <a href=\"https:\/\/people.rennes.inria.fr\/Julien.Pettre\/\" target=\"_blank\" rel=\"noopener\">Pettr\u00e9<\/a>. Et pour mieux comprendre les agissements humains dans une rue ou dans une gare, les chercheurs vont nous immerger dans une simulation de ces lieux.<\/p>\n<p>Deux objectifs se superposent alors. Le premier est d&rsquo;ordre technologique. Il vise \u00e0 trouver l&rsquo;art et la mani\u00e8re de cr\u00e9er ces humains virtuels autonomes pour les faire d\u00e9ambuler dans un simulateur en pr\u00e9sence d&rsquo;une personne \u00e9quip\u00e9e d&rsquo;un visiocasque. Le deuxi\u00e8me porte sur l&rsquo;exploitation scientifique de ce que cette simulation immersive permet d&rsquo;observer. \u201c<em>Nous avons des questionnements auxquels nous allons pouvoir r\u00e9pondre gr\u00e2ce \u00e0 cet outil.<\/em>\u201d<\/p>\n<div id=\"attachment_955\" style=\"width: 1034px\" class=\"wp-caption alignnone\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/Inria-0342-008.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-955\" class=\"wp-image-955 size-full\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/Inria-0342-008.jpg\" alt=\"\" width=\"1024\" height=\"683\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/Inria-0342-008.jpg 1024w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/Inria-0342-008-300x200.jpg 300w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/Inria-0342-008-768x512.jpg 768w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/Inria-0342-008-600x400.jpg 600w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/Inria-0342-008-150x100.jpg 150w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><p id=\"caption-attachment-955\" class=\"wp-caption-text\">\u00a9 Inria \/ Photo J.C. Moschetti<\/p><\/div>\n<p><span style=\"font-family: georgia, palatino, serif; font-size: 18pt; color: #ff0000;\">Comportement de foule<\/span><\/p>\n<p>Les chercheurs travaillent sur diff\u00e9rents sujets. Julien Pettr\u00e9, lui, s&rsquo;int\u00e9resse au comportement de la foule. <em>\u201cRien \u00e0 voir avec la r\u00e9alit\u00e9 virtuelle a priori. Pour moi, ce n&rsquo;est qu&rsquo;un outil, une m\u00e9thode que j&rsquo;utilise pour comprendre la fa\u00e7on dont on se d\u00e9place dans un groupe, les interactions avec les voisins, les distances que l&rsquo;on essaye de garder, etc.<\/em>\u201d<\/p>\n<p>Or, pour \u00e9tudier ces ph\u00e9nom\u00e8nes, il faut d\u00e9j\u00e0 pouvoir les observer. Pas facile dans la vie r\u00e9elle&#8230; \u201c<em>Mais le monde virtuel nous facilite beaucoup les choses. On peut cr\u00e9er une situation enti\u00e8rement contr\u00f4l\u00e9e. On manipule finement l&rsquo;environnement pour qu&rsquo;il s&rsquo;y passe les \u00e9v\u00e9nements d\u00e9sir\u00e9s. On expose la personne immerg\u00e9e \u00e0 une situation bien sp\u00e9cifique. On peut aussi placer successivement plusieurs personnes face \u00e0 exactement les m\u00eames conditions exp\u00e9rimentales. Ce qui s&rsquo;av\u00e8re plus difficile, voire impossible, dans la vraie vie.<\/em>\u201d<\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-family: georgia, palatino, serif; font-size: 18pt; color: #ff0000;\">Acc\u00e9l\u00e9rer le cycle exp\u00e9rimental<\/span><\/p>\n<p>L&rsquo;exp\u00e9rimentation par r\u00e9alit\u00e9 virtuelle pr\u00e9sente deux autres avantages : son co\u00fbt et sa rapidit\u00e9. \u201cUne exp\u00e9rience habituelle sur les comportements de groupes n\u00e9cessite 60 participants, quatre mois de pr\u00e9paration, puis un an de travail pour reconstruire les donn\u00e9es. Il faut compter une demi-th\u00e8se de doctorat.\u201d \u00c0 quoi s&rsquo;ajoute un syst\u00e8me de motion capture dont le prix frise&#8230; le million d&rsquo;euros.<\/p>\n<p>\u201cAu final, cela ralentit significativement notre travail. L&rsquo;id\u00e9e avec la r\u00e9alit\u00e9 virtuelle, c&rsquo;est d&rsquo;acc\u00e9l\u00e9rer ce cycle.\u201d Pour une exp\u00e9rience dans un couloir de m\u00e9tro, une seule personne \u00e9quip\u00e9e du visiocasque va d\u00e9ambuler au milieu de ses voisins virtuels. Ces personnages sont tout simplement des r\u00e9pliques de lui-m\u00eame enregistr\u00e9es durant ses pr\u00e9c\u00e9dents passages dans ce couloir. \u201cUne seule journ\u00e9e suffit pour acqu\u00e9rir ces donn\u00e9es qui sont d\u00e9j\u00e0 trait\u00e9es et donc imm\u00e9diatement utilisables pour l&rsquo;analyse.\u201d\u2006 Ces exp\u00e9riences sont-elles fid\u00e8les \u00e0 la r\u00e9alit\u00e9 ? \u201cDes biais peuvent exister, mais nous savons les mesurer pour les mettre de c\u00f4t\u00e9.\u201d<\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-family: georgia, palatino, serif; font-size: 18pt; color: #ff0000;\">Jeu de donn\u00e9es dix fois plus riche<\/span><\/p>\n<p>Parfois, cette m\u00e9thode apporte aussi son lot d&rsquo;informations suppl\u00e9mentaires. Une des exp\u00e9riences vise \u00e0 suivre le regard d&rsquo;un pi\u00e9ton dans la rue. En situation r\u00e9elle, on peut capturer le d\u00e9placement des yeux et filmer la sc\u00e8ne vue par ce passant. Sur la vid\u00e9o, un rep\u00e8re mat\u00e9rialise ensuite l&rsquo;endroit o\u00f9 se porte son regard. Mais on peut tr\u00e8s difficilement mesurer le mouvement de son corps. Dans le monde virtuel, ce probl\u00e8me n&rsquo;existe plus. \u201c<em>Nous poss\u00e9dons un enregistrement complet de ses gestes et de ceux des autres pi\u00e9tons. Nous obtenons un jeu de donn\u00e9es dix fois plus riche que celui de la vie r\u00e9elle. Nous effectuons des analyses beaucoup plus d\u00e9taill\u00e9es et beaucoup plus facilement.<\/em>\u201d<\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-family: georgia, palatino, serif; font-size: 18pt; color: #ff0000;\">Trois axes<\/span><\/p>\n<p>Autour de cette m\u00e9thode, l&rsquo;\u00e9quipe explore trois axes de recherche. Le premier porte sur l&rsquo;animation de l&rsquo;humain virtuel seul. \u201c<em>Les personnages effectuent un mouvement qui permet de comprendre ce qu&rsquo;ils sont en train de faire. Il faut parvenir \u00e0 mettre en lien le mouvement individuel et l&rsquo;activit\u00e9.<\/em>\u201d Et ces personnages ne se contentent pas de marcher. \u201c<em>Une des questions qui pourra nous int\u00e9resser est de savoir comment on r\u00e9agit si la personne en face para\u00eet agressive. Va-t-on la fixer du regard ? Va-t-on plut\u00f4t s&rsquo;\u00e9loigner ? Technologiquement, il s&rsquo;agit d&rsquo;animer des humains virtuels qui seront expressifs et pourront transmettre leur \u00e9tat psychologique. Pas facile&#8230;<\/em>\u201d<\/p>\n<p>Deuxi\u00e8me axe : le collectif. Il faut que l&rsquo;ensemble des activit\u00e9s humaines se d\u00e9roulent en coh\u00e9rence avec le lieu qui les accueille. \u201c<em>Dans notre rue virtuelle, par exemple, nous avons des pi\u00e9tons qui se croisent, des gens qui conversent. Il faut piloter un ensemble de personnes de mani\u00e8re \u00e0 ce que la sc\u00e8ne corresponde \u00e0 la r\u00e9alit\u00e9. Cela rel\u00e8ve de la simulation de foule. Du coup, la compr\u00e9hension du comportement collectif que nous allons obtenir \u00e0 travers nos exp\u00e9riences va venir, \u00e0 son tour, nourrir les techniques qui nous permettent de les mener.<\/em>\u201d Le troisi\u00e8me axe, enfin, s&rsquo;int\u00e9resse \u00e0 l&rsquo;exp\u00e9rience immersive en elle-m\u00eame, puis son \u00e9valuation et son utilisation scientifique. L&rsquo;outil peut en particulier se mettre au service des sciences humaines et sociales.<\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"font-family: georgia, palatino, serif; font-size: 18pt; color: #ff0000;\">Trois d\u00e9monstrations<\/span><\/p>\n<p>&nbsp;<\/p>\n<p>Durant le salon <a href=\"https:\/\/www.laval-virtual.com\/fr\/accueil-2022\/\" target=\"_blank\" rel=\"noopener\">Laval Virtual<\/a>, en avril dernier,\u00a0 les chercheurs ont d\u00e9voil\u00e9 trois aspects de ces travaux. \u201c<em>Mon coll\u00e8gue Marc <a href=\"https:\/\/people.irisa.fr\/Marc.Christie\/\" target=\"_blank\" rel=\"noopener\">Christie<\/a> \u00e9tudie le concept du studio virtuel \u00e0 l&rsquo;usage du cin\u00e9ma en proposant de nouvelles modalit\u00e9s d\u2019interaction pour la conception d\u2019animations. Cette recherche s&rsquo;effectue dans le cadre du projet europ\u00e9en <a href=\"https:\/\/invictusproject.eu\/\" target=\"_blank\" rel=\"noopener\">INVICTUS<\/a>.<\/em>\u201d Ensuite, dans le domaine de l&rsquo;immersion au milieu de la foule, l&rsquo;\u00e9quipe a pr\u00e9sent\u00e9 une nouvelle technologie appel\u00e9e champ d&rsquo;interaction. Issue du projet europ\u00e9en <a href=\"https:\/\/www.upf.edu\/web\/present\" target=\"_blank\" rel=\"noopener\">PRESENT<\/a>, elle permet de cr\u00e9er de nouveaux comportements pour ces humains virtuels de mani\u00e8re tr\u00e8s rapide. \u201c<em>Jusqu&rsquo;\u00e0 pr\u00e9sent, pour chaque interaction, nous devions produire un mod\u00e8le stipulant comment les uns se comportent par rapport aux autres. Cela demandait beaucoup de temps de d\u00e9veloppement. D\u00e9sormais, nous avons une m\u00e9thode qui permet de g\u00e9n\u00e9rer ce comportement \u00e0 partir d&rsquo;un simple croquis. On peut, par exemple, organiser une partie de cache-cache entre deux personnages dont l&rsquo;un cherche \u00e0 se dissimuler derri\u00e8re un obstacle.<\/em>\u201d<\/p>\n<p>La troisi\u00e8me d\u00e9monstration portait sur l\u2019animation de personnages et des techniques issues du projet europ\u00e9en <a href=\"https:\/\/www.clipe-itn.eu\/\" target=\"_blank\" rel=\"noopener\">CLIPE<\/a>. \u00c0 l&rsquo;\u00e9cran : une sc\u00e8ne de bistrot. \u201c<em>Nous enregistrons tous les comportements que l&rsquo;on peut trouver dans un bar : le serveur, des clients accoud\u00e9es au comptoir, d&rsquo;autres attabl\u00e9s, etc. Nous utilisons la r\u00e9alit\u00e9 virtuelle pour cr\u00e9er des animations convaincantes, adapt\u00e9es, et ce tr\u00e8s simplement et tr\u00e8s rapidement. Aucune comp\u00e9tence en animation n\u2019est requise. Puis nous immergeons quelqu&rsquo;un dans cette sc\u00e8ne.<\/em>\u201d Surprise suppl\u00e9mentaire: certains yeux se tournent alors vers lui. \u201c<em>Nous simulons l&rsquo;attention visuelle, le suivi du regard en fonction des \u00e9v\u00e9nements qui se d\u00e9roulent. Les personnages donnent ainsi l&rsquo;impression d&rsquo;avoir conscience de la pr\u00e9sence du nouveau venu.<\/em>\u201d Ce qui renforce d&rsquo;autant le sentiment immersif.<\/p>\n<p>\u201c<em>Avec ces trois d\u00e9monstrations, les visiteurs ont pu appr\u00e9cier ce que nous sommes capables de faire en termes de contenu : animer des humains virtuels individuellement, collectivement, et offrir une nouvelle exp\u00e9rience immersive qui, pour nous, trouve une application scientifique. Car, rappelons-le, nous ne sommes pas uniquement des cr\u00e9ateurs de contenu. Nous utilisons la r\u00e9alit\u00e9 virtuelle pour mener nos recherches.<\/em>\u201d<\/p>\n<table style=\"border-collapse: collapse; width: 46.8039%;\" border=\"1\">\n<tbody>\n<tr>\n<td style=\"width: 50%; text-align: center;\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-968 size-medium\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187-300x225.jpg\" alt=\"\" width=\"300\" height=\"225\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187-300x225.jpg 300w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187-768x576.jpg 768w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187-1024x768.jpg 1024w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187-600x450.jpg 600w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187-150x113.jpg 150w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187-1320x990.jpg 1320w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3187.jpg 2048w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a><\/td>\n<td style=\"width: 2.06612%;\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-957 size-medium\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210-300x225.jpg\" alt=\"\" width=\"300\" height=\"225\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210-300x225.jpg 300w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210-768x576.jpg 768w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210-1024x768.jpg 1024w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210-600x450.jpg 600w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210-150x113.jpg 150w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210-1320x990.jpg 1320w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3210.jpg 2048w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a><\/td>\n<\/tr>\n<tr>\n<td style=\"width: 50%;\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-967 size-medium\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198-300x225.jpg\" alt=\"\" width=\"300\" height=\"225\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198-300x225.jpg 300w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198-768x576.jpg 768w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198-1024x768.jpg 1024w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198-600x450.jpg 600w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198-150x113.jpg 150w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198-1320x990.jpg 1320w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3198.jpg 2048w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a><\/td>\n<td style=\"width: 2.06612%;\"><a href=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167.jpg\"><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-963 size-medium\" src=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167-300x225.jpg\" alt=\"\" width=\"300\" height=\"225\" srcset=\"https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167-300x225.jpg 300w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167-768x576.jpg 768w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167-1024x768.jpg 1024w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167-600x450.jpg 600w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167-150x113.jpg 150w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167-1320x990.jpg 1320w, https:\/\/project.inria.fr\/emergences\/files\/2022\/05\/IMG_3167.jpg 2048w\" sizes=\"auto, (max-width: 300px) 100vw, 300px\" \/><\/a><\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<table style=\"border-collapse: collapse; width: 100%;\" border=\"1\">\n<tbody>\n<tr>\n<td style=\"width: 800px; background-color: #384257; border-color: #384257;\"><span style=\"color: #ffffff;\">* VirtUS est une \u00e9quipe-projet Inria, Universit\u00e9 Rennes 1, Universit\u00e9 Rennes 2 et ENS Rennes, commune \u00e0 l&rsquo;Irisa. Les membres permanents de l&rsquo;\u00e9quipe sont : Samuel Boivin, Marc Christie, Ludovic Hoyet, Anne-H\u00e9l\u00e8ne Olivier et Julien Pettr\u00e9.<\/span><\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n","protected":false},"excerpt":{"rendered":"<p>Nous immerger au milieu d&rsquo;humains virtuels qui vaquent \u00e0 leurs occupations habituelles pour ensuite \u00e9tudier notre comportement dans ces sc\u00e8nes : telle est la vocation de VirtUS, une nouvelle \u00e9quipe de recherche au centre Inria Rennes \u2013 Bretagne Atlantique. Les scientifiques ont effectu\u00e9 une d\u00e9monstration de leur simulateur lors du\u2026<\/p>\n<p> <a class=\"continue-reading-link\" href=\"https:\/\/project.inria.fr\/emergences\/creer-des-simulations-immersives-peuplees\/\"><span>En savoir plus<\/span><i class=\"crycon-right-dir\"><\/i><\/a> <\/p>\n","protected":false},"author":132,"featured_media":955,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7],"tags":[34],"class_list":["post-952","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-recherche","tag-34"],"_links":{"self":[{"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/posts\/952","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/users\/132"}],"replies":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/comments?post=952"}],"version-history":[{"count":10,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/posts\/952\/revisions"}],"predecessor-version":[{"id":995,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/posts\/952\/revisions\/995"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/media\/955"}],"wp:attachment":[{"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/media?parent=952"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/categories?post=952"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/project.inria.fr\/emergences\/wp-json\/wp\/v2\/tags?post=952"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}