[S]ûreté de l’intelligence [A]rtificielle [I]nvestiguée par les méthodes [F]ormelles

Il n’est plus considéré comme hypothétique que l’intelligence artificielle (IA), en particulier avec ses récents progrès en apprentissage automatique (ML), puisse “augmenter” un large éventail d’applications dans notre société, y compris dans des systèmes critiques tels que la santé, l’énergie et les transports. La révolution du ML a changé la façon dont les logiciels sont développés, offrant des performances au-delà de la programmation explicite traditionnelle. Bien qu’il y ait des avantages indéniables à tirer de l’IA, les chercheurs ont identifié plusieurs lacunes concernant sa fiabilité et son explicabilité, qui doivent être résolues avant qu’elle ne puisse être largement acceptée. En effet, il est crucial d’investir des efforts dans le développement d’outils et de méthodes visant des systèmes basés sur l’IA plus sûrs et plus transparents.

Assurer la fiabilité des logiciels n’est pas un objectif nouveau : plusieurs approches statistiques et des méthodes formelles (FM) ont été développées au fil des décennies pour traiter de ces problèmes. La communauté FM a passé ce temps à construire les fondations mathématiques et logiques pour des outils logiciels efficaces qui peuvent intervenir à toutes les étapes du cycle de vie des logiciels, de la spécification et du développement au déploiement et la maintenance. En fournissant des outils pour atteindre des normes de fiabilité plus élevées, la communauté FM a rendu le monde plus sûr, comme en témoigne le nombre croissant de normes qui exigent l’utilisation de FM dans le développement de logiciels critiques.

Cependant, les approches FM traditionnelles parviennent peu à répondre aux défis posés par les récents progrès de l’IA. La plupart des défis liés à l’utilisation de FM pour les systèmes basés sur l’apprentissage automatique (ML) découlent de leur nature stochastique et incertaine, de leur grande taille, de la difficulté de leur spécification, de leur nature monolithique, de leur manque d’interprétabilité et de la profusion de différentes architectures qui créent un champ d’IA toujours plus large.

Pour relever ces défis, SAIF est organisé autour de trois objectifs, articulés le long de trois des principales étapes du cycle de vie traditionnel du développement de logiciels : la spécification, la conception et la validation des systèmes basés sur le ML. Chacun de ces objectifs comporte ses propres sous-objectifs, naturellement interconnectés entre eux. Ces sous-objectifs visent à pousser l’actuel état de l’art, par exemple à travers les artefacts d’IA traités (en particulier des architectures complexes telles que les réseaux de neurones graphiques et récurrents, peu explorés aujourd’hui), à travers les domaines d’application (en étendant aux types de données non-images tels que les séries temporelles et la spectrométrie) et à travers les méthodes sous-jacentes aux outils d’amélioration de la fiabilité ciblés (comme les algèbres tropicales).

L’IA a déjà montré un grand potentiel pour notre société, mais pour réaliser pleinement son impact positif, il est essentiel de garantir rigoureusement sa sûreté. Cela nécessite un changement significatif dans la façon dont nous utilisons les FM pour traiter les problèmes modernes de l’IA. L’objectif de SAIF est d’utiliser la vaste connaissance accumulée au fil des décennies dans les FM pour les repenser et aborder les nouvelles préoccupations en matière de fiabilité soulevées par le renouveau de l’IA. Grâce à la synergie d’un consortium diversifié avec une expertise complémentaire, nous visons à aider la société à se rapprocher d’un état où elle peut bénéficier des réalisations de l’IA sans en subir de fâcheuses conséquences.

Les commentaires sont clos.