Le projet

Le projet scientifique que nous proposons pour CornelIA est pensé comme un continuum d’activités allant de la recherche fondamentale à l’étude de sa mise en application. Il s’entend à la fois comme reposant sur les disciplines qui permettent de développer de nouveaux algorithmes d’IA mais aussi sur les disciplines de sciences humaines qui les étudient finement, notamment dans la perspective des interactions de ces systèmes avec les individus. Ce projet est présenté de manière orthogonale à la structure en Work Packages afin de faciliter la réalisation de travaux transversaux. Ce projet s’appuie notamment sur les équipements acquis dans le cadre du projet.

Les principaux thèmes de recherche scientifique sont les suivants :

— IA responsable et respectueuse de l’humain.
Par IA responsable, il faut entendre des systèmes d’IA pour lesquels les questions concernant
la protection de la vie privée, l’explicabilité des décisions prises par les systèmes d’IA, l’équité,
la détection et la correction des biais, et la prise en compte des conséquences des actions réalisées par ces systèmes d’IA d’une manière générale sont abordées de manière explicite afin que
les citoyens puissent faire confiance à ces systèmes. On pense ici aux dispositifs robotiques,
notamment ceux utilisés en médecine, qu’ils soient rigides ou souples ou aux algorithmes de
recommandation sur des sites Internet et dans des administrations (emploi, justice, …). La
problématique de l’IA responsable se décline selon de nombreuses axes, parmi lesquels nous
pouvons citer (de manière non exhaustive) :

— Explicabilité, traçabilité et interprétabilité : développer des modèles de raisonnement, de
décision et d’apprentissage lisibles et interprétables par le citoyen et fournir des explications
précises quant aux résultats d’algorithmes IA.
— Confiance : garantir et quantifier formellement les incertitudes, les erreurs, la sensibilité des
algorithmes.
— Équité : assurer que les résultats produits par les algorithmes respectent une équité de
traitement pour différentes personnes ou catégories de personnes.
— Transparence : fournir des explications précises sur la raison pour laquelle un algorithme a
produit tel résultat.
— Respect de la vie privée : garantir que la conception et l’utilisation des algorithmes ne
révèlent pas de données à caractère privé et personnel.
— Sécurité et robustesse aux attaques : s’assurer que les modèles et algorithmes (en particulier
d’apprentissage) ne puissent pas être détournés par des utilisateurs malveillants, ou qu’au
moins de tels détournements soient détectables.
— Intégration de connaissances et contraintes : assurer que le résultat d’un algorithme respecte
des connaissances et contraintes du domaine (de nature physique ou temporelle par exemple).
Il faut avoir à l’esprit que les notions mentionnées ci-dessus et auxquelles il est souvent fait
référence souffrent pour certaines de l’absence d’une définition bien établie et opérationnalisable
d’un point de vue informatique. Être en capacité de préciser ces notions constitue déjà une
avancée.
— IA durable en particulier pour l’embarqué.
D’une manière générale, l’IA durable est une nécessité face au défi du changement climatique, les
algorithmes d’apprentissage omniprésents aujourd’hui étant particulièrement voraces en termes
énergétiques. C’est également une nécessité dans l’embarqué et tous les dispositifs ayant des
capacités de calcul et de mémoire limitées. On peut réduire le gaspillage d’énergie par des améliorations matérielles et logicielles. On peut aussi repenser les algorithmes eux-mêmes, voire les infrastructures matérielles pour faire face à ces défis. Dans le cadre de CornelIA, nos recherches seront tournées vers des briques technologiques à impact environnemental mieux contrôlé, autour de grandes questions telles que :


— La sobriété des données et des traitements en environnements physiques contraints, notamment
des outils pour la plasticité entre cloud/fog/edge computing, l’impact énergétique des
systèmes d’IA.
— La sécurité des données en environnement physique contraint, permettant d’aller vers une transmission de données fiables et non falsifiables.
— Les technologies bio-inspirées, notamment pour la robotique ou les circuits électroniques,
l’enjeu étant ici de mieux utiliser les ressources disponibles.
— L’optimisation des techniques, des procédés et de l’utilisation des ressources dans un environnement
industriel.


— IA centrée sur l’humain Au-delà du travail «algorithmique/technique» principalement exposé
ci-dessus, il est essentiel d’intégrer une réflexion s’appuyant sur des chercheurs en sciences
humaines, sociales ou artistiques. Ainsi, nous souhaitons comprendre comment l’humain peut
interagir de manière harmonieuse et efficace avec un système d’IA. Nous souhaitons également
confronter différentes approches de design, dont celles centrées utilisateurs et celles participatives mais aussi les approches créatives et artistiques afin d’étudier la co-construction des intelligences.


Dans cet esprit, nous mentionnons différentes pistes de recherche qui seront poursuivies
dans CornelIA, à nouveau sans caractère limitatif :
— Le rapport entre intelligence et IA, notamment sur les aspects légaux, éthiques, socioéconomiques,
écologiques et politiques.
— Le rapport entre pensée et langage, du concept d’intelligence, de la capacité de conceptualisation,
du concept de médiation d’information ; ceci dans le but de mieux comprendre quel
peut être le placement de l’IA au sein de la société.
— Identifier des points d’interaction ou de collaboration entre intelligence humaine et intelligence
artificielle, afin de mieux comprendre la manière dont l’une et l’autre peuvent coexister.
— Mieux cibler comment faire de l’IA un outil pour l’intelligence.


Les commentaires sont clos.