Réchauffement climatique oblige, il devient essentiel d’aller vers une compréhension fine de la dynamique océanique. Cette meilleure précision exige des modèles de nouvelle génération alliant la physique déterministe, les méthodes stochastiques et l’intelligence artificielle. C’est pour combiner ces différentes approches que l’équipe commune Odyssey vient de voir le jour. Elle rassemble cinq entités académiques : Ifremer, IMT Atlantique, l’Université de Bretagne Occidentale, l’Université de Rennes 1 et Inria.
Les océans jouent un rôle crucial dans la régulation du climat. Ils absorbent par exemple 93% du surplus de chaleur généré par les gaz à effet de serre. Les continents, les glaces et l’atmosphère n’absorbent quant à eux que les 7% restants. Pour prédire précisément l’ampleur du réchauffement climatique attendu dans les décennies à venir, les climatologues souhaitent donc disposer de la meilleure représentation possible de la dynamique océanique. Mais il reste difficile de modéliser en précision l’échange d’énergie généré par les courants, les marées, les vagues et les déplacements d’air.
Fondamentalement, les scientifiques se heurtent à un problème d’échelle et de résolution. Leurs modèles couvrent de vastes étendues sur de très longues périodes, mais uniquement à faible résolution. Vu la zone géographique et la durée considérées, le calcul en précision exigerait une vie entière. Certes, les océanographes disposent aussi de modèles haute résolution, mais ceux-ci couvrent uniquement de petites zones.
Complication supplémentaire : les modèles océanographiques reposent sur de la physique causale. Ils sont empreints d’un certain déterminisme tout en étant également de nature chaotique. Ces modèles s’avèrent très sensibles aux données d’origine. De petites variations de ces conditions peuvent engendrer des résultats très différents en assez peu de temps, créant ainsi de l’incertitude.
Collaboration de longue date
Un des principaux objectifs de l’équipe Odyssey est donc de réconcilier les deux types de modèles tout en considérant aussi ce problème d’incertitude.
Il s’agit du prolongement naturel de deux collaborations historiques entre nos organisations respectives. L’une entre Ifremer et IMT Atlantique. L’autre entre Ifremer et Inria, résume Étienne Mémin, responsable de cette nouvelle équipe* créée en mars dernier. Le groupe est pluridisciplinaire. Il comprend 21 chercheurs permanents : numériciens, modélisateurs, analystes en données, spécialistes de l’assimilation de données, chercheurs en Intelligence Artificielle, etc. Le but global est de faire émerger une nouvelle génération de modèles océanographiques capables de mieux tirer parti des données. Les modèles actuels sont construits sur des hypothèses simplificatrices. En termes de prédiction et surtout en termes de quantification et propagation des incertitudes, ils ne sont donc pas aussi opérants que l’on pourrait le vouloir. Nous espérons pouvoir les amener à un nouveau niveau en nous appuyant sur deux approches. À savoir : la paramétrisation stochastique des modèles et l’apprentissage machine.
Introduire de la variabilité
Un premier cap a été franchi en 2019 quand Ifremer, Inria et l’Imperial College London ont obtenu un financement du Conseil européen de la recherche (ERC) pour voir comment les méthodes stochastiques pourraient contribuer à résoudre ce problème d’incertitude dans les déplacements de fluides océaniques en introduisant de la variabilité dans les modèles. Ce projet européen court sur six ans. Il s’appelle STUOD*.
Les outils mathématiques en cours d’élaboration devraient permettre d’injecter des distributions de probabilité dans les modèles haute résolution d’événements locaux qui se répercuteront dans les modèles à grande échelle. S’éloignant de l’approche purement déterministe, la simulation introduira ainsi un ensemble de différentes réalisations décrivant l’évolution possible d’un phénomène. Différentes fluctuations de température de l’eau par exemple.
Coupler modèles et données
La deuxième approche envisagée concerne le couplage des modèles et des données. Elle s’appuiera sur les collaborations précédentes entre Ifremer et IMT Atlantique. En toile de fond : les satellites, les bouées et autres capteurs qui fournissent de plus en plus d’observations. “Mais nous avons rarement la totalité. Nous ne sommes pas dans un monde idéal où nous aurions une haute résolution en temps et en espace. Et si les modèles couvrent de vastes zones, ils présentent une faible résolution. Il y a donc tout un effort à faire pour connecter ces modèles aux données disponibles. À partir de ces données, on peut effectuer beaucoup d’analyses physiques pour comprendre plus en détail le fonctionnement de certains processus physiques comme les mécanismes régissant les échanges entre les océans et l’atmosphère ou encore la redistribution de l’énergie dans les océans. Dans ce domaine, notre travail se déroulera en lien avec Oceanix*, une chaire de recherche en apprentissage machine à IMT Atlantique.”
“De plus en plus, conclut Étienne Mémin, nous allons vers un mariage assez sophistiqué de modèles mathématiques, de techniques d’apprentissage, de méthodes d’assimilation de la donnée sur lesquels nous pourrions difficilement travailler les uns sans les autres.”
|