

{"id":146,"date":"2025-04-16T13:39:47","date_gmt":"2025-04-16T11:39:47","guid":{"rendered":"https:\/\/project.inria.fr\/sharp\/?p=146"},"modified":"2025-04-16T13:40:57","modified_gmt":"2025-04-16T11:40:57","slug":"why-does-ai-consume-so-much-energy","status":"publish","type":"post","link":"https:\/\/project.inria.fr\/sharp\/why-does-ai-consume-so-much-energy\/","title":{"rendered":"Why does AI consume so much energy ?"},"content":{"rendered":"<p><a href=\"https:\/\/theconversation.com\/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406\" target=\"_blank\" rel=\"noreferrer noopener\">A note<\/a> by P. Caillon and A. Allauzen from the SHARP project published on The Conversation. <\/p>\n\n\n\n<h1 class=\"wp-block-heading\">Pourquoi l\u2019IA g\u00e9n\u00e9rative consomme-t-elle tant&nbsp;d\u2019\u00e9nergie&nbsp;?<\/h1>\n\n\n\n<p><a href=\"https:\/\/theconversation.com\/profiles\/paul-caillon-2297992\">Paul Caillon<\/a>, <em><a href=\"https:\/\/theconversation.com\/institutions\/universite-paris-dauphine-psl-2165\">Universit\u00e9 Paris Dauphine \u2013 PSL<\/a><\/em> et <a href=\"https:\/\/theconversation.com\/profiles\/alexandre-allauzen-2303113\">Alexandre Allauzen<\/a>, <em><a href=\"https:\/\/theconversation.com\/institutions\/universite-paris-dauphine-psl-2165\">Universit\u00e9 Paris Dauphine \u2013 PSL<\/a><\/em><\/p>\n\n\n\n<p><strong>DeepSeek d\u00e9fraye la chronique en proposant un mod\u00e8le dont les performances seraient comparables \u00e0 celles des mod\u00e8les pr\u00e9existants, pour un co\u00fbt tr\u00e8s r\u00e9duit en termes de puissance de calcul et de donn\u00e9es, et donc une consommation \u00e9nerg\u00e9tique moindre. Quand on sait que Microsoft a indiqu\u00e9 une hausse de 29,1&nbsp;% d\u2019<a href=\"https:\/\/cdn-dynmedia-1.microsoft.com\/is\/content\/microsoftcorp\/microsoft\/msc\/documents\/presentations\/CSR\/Microsoft-2024-Environmental-Sustainability-Report.pdf#page=1\">\u00e9mission de carbone sur l\u2019ann\u00e9e 2023<\/a> et que diff\u00e9rentes grandes entreprises du num\u00e9rique <a href=\"https:\/\/theconversation.com\/comment-faire-face-a-la-crise-de-lenergie-de-lia-244533\">investissent dans des capacit\u00e9s de production d\u2019\u00e9lectricit\u00e9<\/a>, le tout en lien avec l\u2019essor de l\u2019IA g\u00e9n\u00e9rative, l\u2019enjeu est de taille. Pourquoi l\u2019IA g\u00e9n\u00e9rative consomme-t-elle tant&nbsp;? D\u00e9cryptage.<\/strong><\/p>\n\n\n\n<hr class=\"wp-block-separator\"\/>\n\n\n\n<p>Les grands mod\u00e8les de langage (<em>Large Language Models<\/em> ou LLM), comme ChatGPT (OpenAI), Gemini (Google\/DeepMind) ou encore les mod\u00e8les g\u00e9n\u00e9ratifs d\u2019images comme Midjourney, sont devenus en tr\u00e8s peu de temps des outils incontournables avec des usages qui ne cessent de s\u2019amplifier et de se diversifier. Il est vrai que la fluidit\u00e9 des \u00e9changes avec ChatGPT impressionne, et que les promesses de d\u00e9veloppement sont enthousiasmantes.<\/p>\n\n\n\n<p>N\u00e9anmoins, ces promesses cachent des co\u00fbts de calcul, et donc \u00e9nerg\u00e9tiques, consid\u00e9rables. Or, aujourd\u2019hui l\u2019id\u00e9e dominante dans l\u2019industrie des mod\u00e8les g\u00e9n\u00e9ratifs est&nbsp;: \u00ab&nbsp;Plus grand est le mod\u00e8le, mieux c\u2019est.&nbsp;\u00bb Cette comp\u00e9tition s\u2019accompagne d\u2019une <a href=\"https:\/\/theconversation.com\/comment-faire-face-a-la-crise-de-lenergie-de-lia-244533\">croissance de la consommation \u00e9nerg\u00e9tique<\/a> et, donc, de l\u2019empreinte \u00e9cologique qui ne peut plus \u00eatre ignor\u00e9e et qui questionne quant \u00e0 sa p\u00e9rennit\u00e9 et sa viabilit\u00e9 pour la soci\u00e9t\u00e9.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Pourquoi un tel co\u00fbt&nbsp;?<\/h2>\n\n\n\n<p>Un mod\u00e8le g\u00e9n\u00e9ratif de texte comme un chatbot est un ensemble de param\u00e8tres num\u00e9riques ajust\u00e9s \u00e0 partir de donn\u00e9es pour accomplir une t\u00e2che sp\u00e9cifique. L\u2019architecture dominante s\u2019appuie sur les <a href=\"https:\/\/arxiv.org\/pdf\/1706.03762\">\u00ab&nbsp;<em>transformers<\/em>&nbsp;\u00bb<\/a>.<\/p>\n\n\n\n<p>Les <em>transformers<\/em> prennent une s\u00e9quence en entr\u00e9e, par exemple un prompt (soit votre question), pour la transformer num\u00e9riquement. En <a href=\"https:\/\/theconversation.com\/comment-fonctionne-chatgpt-decrypter-son-nom-pour-comprendre-les-modeles-de-langage-206788\">empilant les couches de <em>transformers<\/em><\/a>, le mod\u00e8le multiplie ces transformations afin de construire la r\u00e9ponse en prolongeant son entr\u00e9e. Cet empilement de couches conf\u00e8re au mod\u00e8le son efficacit\u00e9 et fait cro\u00eetre le nombre de param\u00e8tres. C\u2019est pourquoi un mod\u00e8le tel que GPT-4 contient au moins 1&nbsp;tera (1&nbsp;000&nbsp;milliards) de param\u00e8tres et n\u00e9cessite donc au moins 2&nbsp;tera&nbsp;octets&nbsp;(To) de m\u00e9moire vive pour \u00eatre utilisable.<\/p>\n\n\n\n<p>Que ce soit pour l\u2019entra\u00eenement, pour le stockage des donn\u00e9es et des param\u00e8tres, ou pour le calcul d\u2019une r\u00e9ponse, des infrastructures de calcul de plus en plus puissantes sont donc indispensables. En d\u2019autres termes, contrairement \u00e0 ce que l\u2019on croit souvent, ce n\u2019est pas juste pour entra\u00eener le mod\u00e8le que ces techniques sont tr\u00e8s co\u00fbteuses.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Des donn\u00e9es \u00e9merge la \u00ab&nbsp;connaissance&nbsp;\u00bb<\/h2>\n\n\n\n<p>Avant tout, un mod\u00e8le g\u00e9n\u00e9ratif doit \u00eatre \u00ab&nbsp;appris&nbsp;\u00bb. Pour cela des donn\u00e9es (textes, images, sons, etc.) lui sont pr\u00e9sent\u00e9es \u00e0 maintes reprises afin d\u2019ajuster ses param\u00e8tres. Plus il y a de param\u00e8tres, plus la phase d\u2019apprentissage est co\u00fbteuse en donn\u00e9es, mais aussi en temps et en \u00e9nergie.<\/p>\n\n\n\n<p>Ainsi, pour un LLM (grand mod\u00e8le de langage), on parle par exemple de l\u2019ordre de la dizaine de trillions de donn\u00e9es (environ 10&nbsp;trillions pour <a href=\"https:\/\/arxiv.org\/abs\/2303.08774\">GPT-4<\/a> et 16&nbsp;trillions pour <a href=\"https:\/\/arxiv.org\/pdf\/2403.05530\">Gemini<\/a>) et aux alentours de trois mois de pr\u00e9apprentissage sur environ 20&nbsp;000&nbsp;puces A100 de NVIDIA pour le dernier-n\u00e9 d\u2019OpenAI. Ces mod\u00e8les les plus performants sont en fait une combinaison de plusieurs \u00e9normes mod\u00e8les (les \u00ab&nbsp;<em>Mixture of Experts<\/em>&nbsp;\u00bb), <a href=\"https:\/\/www.youtube.com\/watch?v=Y2F8yisiS6E\">GPT-4 \u00e9tant ainsi le r\u00e9sultat de 16&nbsp;experts de 110&nbsp;milliards de param\u00e8tres, selon les rares informations disponibles<\/a>.<\/p>\n\n\n\n<p>Apr\u00e8s cette phase d\u2019apprentissage, le mod\u00e8le est d\u00e9ploy\u00e9 afin de r\u00e9pondre aux utilisateurs dans une phase dite d\u2019\u00ab&nbsp;inf\u00e9rence&nbsp;\u00bb. Pour faire face \u00e0 la demande (ces syst\u00e8mes construits pour r\u00e9pondre \u00e0 plusieurs personnes en m\u00eame temps) avec un temps de r\u00e9ponse satisfaisant, le mod\u00e8le est alors dupliqu\u00e9 sur diff\u00e9rents clusters de calcul. Un <a href=\"https:\/\/arxiv.org\/abs\/2311.16863\">article de recherche<\/a> constate \u00e9galement que les architectures g\u00e9n\u00e9ratives polyvalentes consomment significativement plus d\u2019\u00e9nergie \u00e0 l\u2019inf\u00e9rence que les syst\u00e8mes sp\u00e9cifiques \u00e0 une t\u00e2che, m\u00eame \u00e0 taille de mod\u00e8le \u00e9quivalente.<\/p>\n\n\n\n<p>Ce survol des besoins en termes de calcul donne une id\u00e9e des ordres de grandeur qui se cachent derri\u00e8re nos interactions \u2014&nbsp;qui semblent si rapides et efficaces&nbsp;\u2014 avec ces \u00e9normes mod\u00e8les. Il permet surtout de poser diff\u00e9remment la question de l\u2019\u00e9valuation de ces mod\u00e8les, en y incluant la question de la soutenabilit\u00e9 en termes \u00e9nerg\u00e9tiques et \u00e9cologiques. Des <a href=\"https:\/\/ieeexplore.ieee.org\/abstract\/document\/10805338\">travaux r\u00e9cents<\/a> proposent ainsi un mod\u00e8le pour \u00e9valuer les impacts environnementaux de la fabrication des cartes graphiques et une analyse multicrit\u00e8re des phases d\u2019entra\u00eenement et d\u2019inf\u00e9rence des mod\u00e8les d\u2019apprentissage automatique.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Obsolescence et frugalit\u00e9<\/h2>\n\n\n\n<p>Ainsi les grands mod\u00e8les g\u00e9n\u00e9ratifs n\u00e9cessitent des infrastructures mat\u00e9rielles colossales.<\/p>\n\n\n\n<p>Au-del\u00e0 de consid\u00e9rations \u00e9conomiques, <a href=\"https:\/\/arxiv.org\/pdf\/2409.14160\">il a \u00e9t\u00e9 montr\u00e9<\/a> que pass\u00e9 un certain point, les gains de performances ne justifient pas une telle explosion du nombre de param\u00e8tres. Toutes les applications ne n\u00e9cessitent pas d\u2019\u00e9normes mod\u00e8les et des approches plus modestes peuvent \u00eatre aussi performantes, plus rapides et moins co\u00fbteuses.<\/p>\n\n\n\n<p>Sur le plan environnemental, l\u2019apprentissage et l\u2019inf\u00e9rence de mod\u00e8les massifs ont un co\u00fbt \u00e9nerg\u00e9tique qui n\u00e9cessitent r\u00e9flexion. <a href=\"https:\/\/www.jmlr.org\/papers\/volume24\/23-0069\/23-0069.pdf\">Les travaux de certains auteurs<\/a> soulignent la complexit\u00e9 de mesurer avec pr\u00e9cision l\u2019empreinte carbone de ces grands mod\u00e8les, tout en montrant leur impact consid\u00e9rable&nbsp;: 50,5&nbsp;tonnes \u00e9quivalent CO<sub>2<\/sub> (CO<sub>2<\/sub>&nbsp;eq) pour un mod\u00e8le de 176&nbsp;milliards de param\u00e8tres, appris en 2023\u2026 et pratiquement consid\u00e9r\u00e9 comme obsol\u00e8te aujourd\u2019hui. Pour rappel, si un Fran\u00e7ais moyen rejette actuellement environ 10&nbsp;tonnes&nbsp;CO<sub>2<\/sub>&nbsp;eq par an, l\u2019objectif \u00e0 l\u2019horizon 2050 pour respecter l\u2019engagement des accords de Paris est d\u2019environ <a href=\"https:\/\/www.unep.org\/emissions-gap-report-2020\">2&nbsp;tonnes&nbsp;CO\u2082&nbsp;eq par Fran\u00e7ais et par an<\/a>.<\/p>\n\n\n\n<p>Quant \u00e0 la phase d\u2019inf\u00e9rence (ou d\u2019utilisation, quand on pose une question \u00e0 GPT), lorsqu\u2019elle est r\u00e9alis\u00e9e des millions de fois par jour, comme c\u2019est le cas pour un assistant conversationnel, elle peut engendrer un co\u00fbt \u00e9nerg\u00e9tique consid\u00e9rable, parfois bien sup\u00e9rieur \u00e0 celui de l\u2019entra\u00eenement.<\/p>\n\n\n\n<p>Ainsi, un <a href=\"https:\/\/mlco2.github.io\/impact\/\">outil<\/a> d\u00e9velopp\u00e9 en 2019 a permis d\u2019estimer qu\u2019une inf\u00e9rence de ChatGPT&nbsp;3.5 produisait environ 4,32&nbsp;grammes de CO<sub>2<\/sub>.<\/p>\n\n\n\n<p>\u00c0 l\u2019heure o\u00f9 les assistants conversationnels sont peut-\u00eatre en passe de remplacer les moteurs de recherche standards (Google, Bing, Qwant), la question de son utilisation se pose, car ces derniers ont un co\u00fbt 10&nbsp;\u00e0 20&nbsp;fois moindre (0,2&nbsp;gramme de CO<sub>2<\/sub> la recherche, d\u2019apr\u00e8s Google).<\/p>\n\n\n\n<p>Enfin, la concentration de pouvoir entre quelques acteurs disposant des ressources n\u00e9cessaires pour d\u00e9velopper ces mod\u00e8les \u2014&nbsp;data centers, donn\u00e9es, comp\u00e9tences&nbsp;\u2014 pose des probl\u00e8mes scientifiques en limitant la diversit\u00e9 des recherches, mais aussi strat\u00e9giques et politiques.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Les recherches en IA frugale<\/h2>\n\n\n\n<p>La <a href=\"https:\/\/theconversation.com\/lenvers-des-mots-frugalite-228048\">frugalit\u00e9<\/a> consiste \u00e0 se fixer d\u00e8s le d\u00e9part une enveloppe de ressources (calcul, m\u00e9moire, donn\u00e9es, \u00e9nergie) et \u00e0 concevoir des mod\u00e8les capables de s\u2019y adapter. L\u2019id\u00e9e n\u2019est pas de sacrifier les performances, mais de privil\u00e9gier la sobri\u00e9t\u00e9&nbsp;: optimiser chaque \u00e9tape, du choix de l\u2019architecture \u00e0 la collecte des donn\u00e9es, en passant par des m\u00e9thodes d\u2019apprentissage plus l\u00e9g\u00e8res, afin de r\u00e9duire l\u2019empreinte environnementale, d\u2019\u00e9largir l\u2019acc\u00e8s \u00e0 l\u2019IA et de favoriser des applications r\u00e9ellement utiles.<\/p>\n\n\n\n<p>La recrudescence de travaux de recherche sur ce th\u00e8me illustre la volont\u00e9 de penser l\u2019IA sous l\u2019angle de la sobri\u00e9t\u00e9. Il s\u2019agit ainsi de replacer la pertinence, l\u2019impact soci\u00e9tal et la soutenabilit\u00e9 au c\u0153ur de la recherche.<\/p>\n\n\n\n<p>Concr\u00e8tement, de nombreuses pistes \u00e9mergent. Sur le plan de l\u2019apprentissage, il s\u2019agit d\u2019explorer des alternatives algorithmiques au <a href=\"https:\/\/www.nature.com\/articles\/323533a0\">paradigme actuel<\/a>, h\u00e9rit\u00e9 du milieu des ann\u00e9es&nbsp;1980 et qui n\u2019a jamais \u00e9t\u00e9 remis en question alors m\u00eame que les quantit\u00e9s de donn\u00e9es et la puissance de calcul n\u2019ont plus rien \u00e0 voir avec celles qui pr\u00e9valaient aux d\u00e9buts de ces mod\u00e8les.<\/p>\n\n\n\n<p>Ainsi, au-del\u00e0 des optimisations techniques, une r\u00e9flexion m\u00e9thodologique de fond s\u2019impose, tant le contexte scientifique a \u00e9volu\u00e9 depuis les ann\u00e9es&nbsp;1980. Cette r\u00e9flexion est au c\u0153ur, par exemple, du <a href=\"https:\/\/www.pepr-ia.fr\/projet\/sharp\/\">projet Sharp<\/a>, financ\u00e9 par le programme France&nbsp;2030. L\u2019\u00e9tude d\u2019architectures plus compactes et sp\u00e9cialis\u00e9es est \u00e9galement abord\u00e9e avec le <a href=\"https:\/\/www.pepr-ia.fr\/projet\/adapting\/\">projet Adapting<\/a> du m\u00eame programme.<\/p>\n\n\n\n<p>Les math\u00e9matiques appliqu\u00e9es peuvent jouer un r\u00f4le cl\u00e9 en proposant des <a href=\"https:\/\/aclanthology.org\/2024.emnlp-main.731\/\">\u00ab&nbsp;repr\u00e9sentations parcimonieuses&nbsp;\u00bb<\/a>, des <a href=\"https:\/\/arxiv.org\/abs\/2106.09685\">m\u00e9thodes de factorisation<\/a>, ou en optimisant <a href=\"https:\/\/arxiv.org\/abs\/2402.16827\">l\u2019usage de donn\u00e9es faiblement annot\u00e9es<\/a>.<\/p>\n\n\n\n<p>Ainsi, en travaillant avec des contraintes de ressources, ces recherches visent un d\u00e9veloppement en IA plus frugal et donc durable, ainsi que plus accessible, et ind\u00e9pendant de l\u2019hyperconcentration du march\u00e9. Elles limitent les externalit\u00e9s n\u00e9gatives \u2014&nbsp;environnementales, \u00e9thiques, \u00e9conomiques&nbsp;\u2014 li\u00e9es \u00e0 la course effr\u00e9n\u00e9e vers le gigantisme.<\/p>\n\n\n\n<p>Mais pour atteindre ces objectifs, il est aussi important d\u2019avancer sur les crit\u00e8res et les m\u00e9thodes d\u2019\u00e9valuations en IA&nbsp;: avec le paradigme dominant actuel, la dimension de frugalit\u00e9 peine encore \u00e0 s\u2019imposer, que ce soit du c\u00f4t\u00e9 de la recherche ou industriel. Il ne faut d\u2019ailleurs pas confondre la r\u00e9cente explosion des outils de <a href=\"https:\/\/arxiv.org\/abs\/2412.19437\">DeepSeek<\/a> avec de la frugalit\u00e9, les co\u00fbts en calcul et en donn\u00e9es \u00e9tant eux aussi extr\u00eamement \u00e9lev\u00e9s, avec des m\u00e9thodes <a href=\"https:\/\/www.nytimes.com\/2025\/01\/29\/technology\/openai-deepseek-data-harvest.html\">probablement \u00e9thiquement r\u00e9pr\u00e9hensibles<\/a>.<\/p>\n\n\n\n<p>Ainsi, le monde acad\u00e9mique doit mieux int\u00e9grer cette dimension afin d\u2019am\u00e9liorer la visibilit\u00e9 et la valorisation des travaux qui visent la frugalit\u00e9.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">L\u2019IA que nous d\u00e9veloppons est-elle vraiment utile&nbsp;?<\/h2>\n\n\n\n<p>La frugalit\u00e9 en IA n\u2019est pas un simple concept, mais une n\u00e9cessit\u00e9 face aux enjeux actuels. Les travaux r\u00e9cents sur son empreinte carbone illustrent l\u2019urgence de repenser nos m\u00e9thodes. Avant m\u00eame d\u2019envisager les mani\u00e8res de rendre l\u2019IA plus sobre, il est l\u00e9gitime de se demander si l\u2019IA que nous d\u00e9veloppons est vraiment utile.<\/p>\n\n\n\n<p>Une approche plus frugale, mieux pens\u00e9e et mieux orient\u00e9e, permettra de construire une IA tourn\u00e9e vers le bien commun, s\u2019appuyant sur des ressources ma\u00eetris\u00e9es, plut\u00f4t que sur la surench\u00e8re permanente en taille et en puissance de calcul.<\/p>\n\n\n\n<hr class=\"wp-block-separator\"\/>\n\n\n\n<p><em>Cet article a \u00e9t\u00e9 \u00e9crit dans le cadre de la troisi\u00e8me \u00e9dition des <a href=\"https:\/\/dauphine.psl.eu\/dauphine-digital-days\">Dauphine Digital Days<\/a> qui a eu lieu \u00e0 l\u2019Universit\u00e9 Paris Dauphine \u2014 PSL, du 18 au 20&nbsp;novembre 2024<\/em>.<\/p>\n\n\n\n<hr class=\"wp-block-separator\"\/>\n\n\n\n<p><em>Le projet <a href=\"https:\/\/project.inria.fr\/sharp\/\">PEPR Sharp IA (ANR-23-PEIA-0008)<\/a> est soutenu par l\u2019Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L\u2019ANR a pour mission de soutenir et de promouvoir le d\u00e9veloppement de recherches fondamentales et finalis\u00e9es dans toutes les disciplines, et de renforcer le dialogue entre science et soci\u00e9t\u00e9. Pour en savoir plus, consultez le site de l\u2019<a href=\"https:\/\/anr.fr\/\">ANR<\/a>.<\/em><\/p>\n\n\n\n<p><a href=\"https:\/\/theconversation.com\/profiles\/paul-caillon-2297992\">Paul Caillon<\/a>, Docteur en intelligence artificielle , <em><a href=\"https:\/\/theconversation.com\/institutions\/universite-paris-dauphine-psl-2165\">Universit\u00e9 Paris Dauphine \u2013 PSL<\/a><\/em> et <a href=\"https:\/\/theconversation.com\/profiles\/alexandre-allauzen-2303113\">Alexandre Allauzen<\/a>, Professeur des Universit\u00e9s, Apprentissage Machine et Traitement automatique des langues, <em><a href=\"https:\/\/theconversation.com\/institutions\/universite-paris-dauphine-psl-2165\">Universit\u00e9 Paris Dauphine \u2013 PSL<\/a><\/em><\/p>\n\n\n\n<p>Cet article est republi\u00e9 \u00e0 partir de <a href=\"https:\/\/theconversation.com\">The Conversation<\/a> sous licence Creative Commons. Lire l\u2019<a href=\"https:\/\/theconversation.com\/pourquoi-lia-generative-consomme-t-elle-tant-denergie-247406\">article original<\/a>.<\/p>","protected":false},"excerpt":{"rendered":"<p>A note by P. Caillon and A. Allauzen from the SHARP project published on The Conversation. Pourquoi l\u2019IA g\u00e9n\u00e9rative consomme-t-elle tant&nbsp;d\u2019\u00e9nergie&nbsp;? Paul Caillon, Universit\u00e9 Paris Dauphine \u2013 PSL et Alexandre Allauzen, Universit\u00e9 Paris Dauphine \u2013 PSL DeepSeek d\u00e9fraye la chronique en proposant un mod\u00e8le dont les performances seraient comparables \u00e0\u2026<\/p>\n<p> <a class=\"continue-reading-link\" href=\"https:\/\/project.inria.fr\/sharp\/why-does-ai-consume-so-much-energy\/\"><span>Continue reading<\/span><i class=\"crycon-right-dir\"><\/i><\/a> <\/p>\n","protected":false},"author":1112,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-146","post","type-post","status-publish","format-standard","hentry","category-uncategorized"],"_links":{"self":[{"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/posts\/146","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/users\/1112"}],"replies":[{"embeddable":true,"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/comments?post=146"}],"version-history":[{"count":1,"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/posts\/146\/revisions"}],"predecessor-version":[{"id":147,"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/posts\/146\/revisions\/147"}],"wp:attachment":[{"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/media?parent=146"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/categories?post=146"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/project.inria.fr\/sharp\/wp-json\/wp\/v2\/tags?post=146"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}