

{"id":4,"date":"2011-12-08T11:55:34","date_gmt":"2011-12-08T11:55:34","guid":{"rendered":"http:\/\/project.inria.fr\/template1\/?page_id=4"},"modified":"2023-10-09T17:15:10","modified_gmt":"2023-10-09T15:15:10","slug":"home","status":"publish","type":"page","link":"https:\/\/project.inria.fr\/bigvisdata\/","title":{"rendered":"Home"},"content":{"rendered":"<p>Images, vid\u00e9os et plus g\u00e9n\u00e9ralement donn\u00e9es visuelles dans leurs diff\u00e9rentes formes, se sont impos\u00e9es comme un moyen privil\u00e9gi\u00e9 d\u2019acqu\u00e9rir et d\u2019\u00e9changer de l\u2019information, en particulier sur les r\u00e9seaux sociaux. Or, ce type de donn\u00e9es n\u00e9cessite des repr\u00e9sentations d\u00e9di\u00e9es. En effet, un contenu visuel tel qu\u2019une photographie est aussi riche qu\u2019il est ambigu. Il est important de d\u00e9velopper des repr\u00e9sentations visuelles adapt\u00e9es au support visuel d\u2019entr\u00e9e (photographies, vid\u00e9os, etc.) mais aussi adapt\u00e9es \u00e0 la t\u00e2che \u00e0 laquelle ces repr\u00e9sentations visuelles seront appliqu\u00e9es. De plus, une m\u00eame repr\u00e9sentation pourra \u00eatre utilis\u00e9e pour plusieurs t\u00e2ches d\u2019analyse compl\u00e9mentaires, de fa\u00e7on s\u00e9quentielle ou simultan\u00e9e. Il s\u2019agit donc de cr\u00e9er une repr\u00e9sentation qui tienne compte de toutes ces contraintes, et qui puisse \u00e9voluer au cours du temps, si ces contraintes elles-m\u00eames \u00e9voluent. Ce cours, \u00e0 l\u2019intersection de la vision par ordinateur et de l\u2019apprentissage automatique, propose une introduction aux diff\u00e9rentes techniques de repr\u00e9sentations visuelles et de leurs mod\u00e8les associ\u00e9s, ainsi qu\u2019aux techniques de mise \u00e0 jour continue de ces mod\u00e8les. Le cours couvrira en particulier: l\u2019apprentissage supervis\u00e9, semi-supervis\u00e9, et auto-supervis\u00e9 de repr\u00e9sentations visuelles, l\u2019adaptation de domaine, les approches pour contrer le probl\u00e8me dit de l\u2019oubli catastrophique. Il couvrira principalement les images naturelles et les s\u00e9quences vid\u00e9os, mais les techniques abord\u00e9es restent valables pour d\u2019autres types de donn\u00e9es visuelles.<\/p>\n<p>Ce cours intitul\u00e9 <strong>&#8220;<span style=\"font-size: large;\">Apprentissage continu de repr\u00e9sentations visuelles<\/span>&#8220;<\/strong> (5MMACRV) correspond \u00e0 l\u2019ancien cours <strong>\u201cComprendre les donn\u00e9es visuelles \u00e0 grande \u00e9chelle\u201d<\/strong>, dont le contenu a \u00e9t\u00e9 mis \u00e0 jour en 2022 afin de mieux int\u00e9grer les avanc\u00e9es r\u00e9centes dans le domaine des repr\u00e9sentations visuelles.<\/p>\n<p>Ce cours est donn\u00e9 par deux chercheurs qui travaillent dans les domaines de la vision par ordinateur et de l\u2019apprentissage automatique, respectivement \u00e0 l\u2019Inria Grenoble (<a href=\"http:\/\/thoth.inrialpes.fr\/~alahari\">Karteek Alahari<\/a>), et au centre de recherche europ\u00e9en de NAVER LABS (<a href=\"http:\/\/www.europe.naverlabs.com\/NAVER-LABS-Europe\/People\/Diane-Larlus\">Diane Larlus<\/a>). Les deux enseignants contribuent de leur expertise en recherche acad\u00e9mique mais aussi industrielle lors de la pr\u00e9sentation de ce cours. Ils pr\u00e9senteront les derni\u00e8res techniques du domaine, en s\u2019appuyant sur des articles de recherche r\u00e9cents.<\/p>","protected":false},"excerpt":{"rendered":"<p>Images, vid\u00e9os et plus g\u00e9n\u00e9ralement donn\u00e9es visuelles dans leurs diff\u00e9rentes formes, se sont impos\u00e9es comme un moyen privil\u00e9gi\u00e9 d\u2019acqu\u00e9rir et d\u2019\u00e9changer de l\u2019information, en particulier sur les r\u00e9seaux sociaux. Or, ce type de donn\u00e9es n\u00e9cessite des repr\u00e9sentations d\u00e9di\u00e9es. En effet, un contenu visuel tel qu\u2019une photographie est aussi riche qu\u2019il\u2026<\/p>\n<p> <a class=\"continue-reading-link\" href=\"https:\/\/project.inria.fr\/bigvisdata\/\"><span>Continue reading<\/span><i class=\"crycon-right-dir\"><\/i><\/a> <\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"open","template":"","meta":{"footnotes":""},"class_list":["post-4","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/project.inria.fr\/bigvisdata\/wp-json\/wp\/v2\/pages\/4","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/project.inria.fr\/bigvisdata\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/project.inria.fr\/bigvisdata\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/bigvisdata\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/bigvisdata\/wp-json\/wp\/v2\/comments?post=4"}],"version-history":[{"count":10,"href":"https:\/\/project.inria.fr\/bigvisdata\/wp-json\/wp\/v2\/pages\/4\/revisions"}],"predecessor-version":[{"id":434,"href":"https:\/\/project.inria.fr\/bigvisdata\/wp-json\/wp\/v2\/pages\/4\/revisions\/434"}],"wp:attachment":[{"href":"https:\/\/project.inria.fr\/bigvisdata\/wp-json\/wp\/v2\/media?parent=4"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}