Contributions

Dis-moi qui tu es, je te dirai ce que tu vas faire : explorer la théorie de la co-représentation entre agents humains et robotiques à travers l’interférence motrice anticipatoire

Esteffe Violet, Marien Couvertier, Jean-Pierre Gazeau, Kathleen Belhassein (Pprime, Université de Poitiers, CNRS)

Être engagés dans une action conjointe implique des différents partenaires des capacités de compréhension et de prédiction des actions de l’autre afin d’ajuster au mieux leur comportement (Sebanz & Knoblich, 2009). Un paradigme expérimental souvent utilisé pour étudier ces processus est la tâche Simon Social, une tâche de temps de réaction sur ordinateur. Cependant, cette méthode d’investigation présente certaines limites et il apparaît donc nécessaire d’investiguer de nouvelles méthodologies plus écologiques afin d’explorer cet effet lors d’une action conjointe Humain-Robot, et donc de permettre et sécuriser la coordination entre ces deux types d’agents. En s’appuyant sur la théorie de la co-représentation, l’utilisation d’un paradigme de tâches motrices partagées tel que proposé dans Rocca & Cavallo (2021) pourrait contribuer à renforcer les résultats déjà obtenus dans le cadre de la tâche Simon Social avec un partenaire robotique. La cinématique du mouvement, potentiellement plus informative que les temps de réponse, constituerait ainsi une mesure plus appropriée et plus fine pour étudier notre capacité à prédire les actions d’un agent robotique et à explorer les facteurs sous-jacents. Nous présenterons les premiers résultats d’une étude pilote sur cet effet d’interférence motrice anticipatoire, menée entre partenaires humains, et discuterons des perspectives pour la collaboration Humain-Robot.

Couplage 6DDL (simultanés) entre les mouvements de la tête d’un sujet et l’effecteur d’un robot

Alexis Poignant, Nathanaël Jarrassé, Guillaume Morel (ISIR, Sorbonne Université, CNRS)

L’approche proposée met en œuvre une façon naturelle de coupler les mouvements d’un sujet à ceux d’un robot à partir d’un lien mécanique virtuel. Nous présenterons une analyse cinématique/biomécanique de la façon dont un sujet mobilise les mouvements de sa tête pour déplacer un objet à laquelle il est physiquement ou virtuellement attaché. Nous présenterons également des éléments sur l’effet des couplages (position-position vs position-vitesse) sur le sentiment d’intégration corporelle qu’on peut présenter dans le rationale. Cette approche fournit de (très) bonnes performances avec un potentiel applicatif important et finalement une manip assez originale d’interaction humain-robot.

Variabilité du mouvement en situation d’interaction homme-robot lors d’une tâche de suivi de trajectoire assistée : résultats préliminaires de la campagne expérimentale MOVER

Jonathan Savin (INRS)

Dans un contexte professionnel, le recours à un robot collaboratif soulève de nombreuses questions en lien avec la santé-sécurité des opérateurs. En particulier, la littérature scientifique et technique a quasiment occulté la question suivante : comment préserver la variabilité des mouvements (VM) des opérateurs ? En effet, cette VM est supposée avoir un effet bénéfique en termes de prévention des facteurs de risques biomécaniques (réduction de la survenue de la fatigue, répartition des sollicitations biomécaniques sur le système locomoteur). Mais cette VM risque d’être fortement réduite si le contrôle du robot impose ou restreint les mouvements de l’opérateur. L’Inria et l’INRS ont donc mis au point la campagne expérimentale MOVER (MOtor Variabiltiy Experiment with a Robot) pour acquérir des connaissances sur la VM d’un opérateur lors de la réalisation d’une tâche avec et sans interaction avec un robot collaboratif. La campagne expérimentale a concerné 18 sujets (10 hommes, 8 femmes) exécutant une tâche guidée de type « wireloop » (suivi de trajectoire). Les données expérimentales sont encore en cours de dépouillement, et nous présentons ici les résultats préliminaires issus de l’observation d’un sujet : dans les conditions observées,

  • il existe une VM liée au sens de parcours du wireloop : les postures adoptées par le sujet sont significativement différentes entre le parcours « aller » et « retour » ;
  • il existe une VM liée à la cadence de la tâche : les postures adoptées par le sujet sont significativement différentes selon que la tâche est réalisée à la vitesse lente, moyenne ou rapide. En général, c’est la cadence moyenne qui se démarque des deux autres ;
  • cette VM a une influence sur l’évaluation des risques professionnels : ne pas en tenir compte pourrait notamment entrainer une sous-estimation des facteurs de risques biomécaniques.

Ces résultats préliminaires confirment l’adéquation du protocole expérimental aux objectifs de l’étude. Ils permettent également de sensibiliser les concepteurs et intégrateurs de systèmes cobotiques, ainsi que les préventeurs et ergonomes, à l’importance de la prise en compte de la VM lors de la conception de situation de travail impliquant une interaction directe homme-robot.

Design of bio-inspired variable impedance control laws for interaction with the environment in rhythmic tasks

Benoit Hureaux (Centrale-Supélec)

This research project focuses on modeling human upper limb control in rhythmic tasks, specifically ball bouncing. It contributes to understanding human movement and developing bio-inspired control strategies for robots interacting with the environment. This work is based on two previous theses. In the first one, Guillaume Avrin developed a human motor control model of a bouncing ball, simulating the kinematics of the task. In the second one, Vincent Fortineau pointed out that the arm stiffness changes during human experimentation on a bouncing ball simulation. Humans increase their arm stiffness before impact and decrease it after.
The objective of the present study is to confirm Fortineau’s observation on stiffness change and precise its behavior. The goal is to obtain a continuous stiffness profile during the ball-bouncing task, to analyze its variation. In order to do that, experiments are performed to get a continuous stiffness profile through the task. This profile is obtained by a series of equations, using data from Electromyogram (EMG) and arm motion captured by a camera.

First-person teleoperation of humanoid robot Reachy by valid and arm-amputated participants with a novel movement-based prosthesis control

Vincent Leconte, Effie Segas, Bianca Lento, Emilie Doat, Etienne Guillaud, Matthieu Lapeyre, Pierre
Rouanet, Gaelle Lannuzel, Antoine Pirrone, Remi Klotz, Daniel Cattaert, Aymar de Rugy (Université de Bordeaux, CNRS, INCIA)

We demonstrate here efficient teleoperation by both valid and arm-amputated participants on Reachy2, an open-source humanoid robot made by Pollen Robotics that ranked 2nd at ANA Avatar XPRIZE. The 3D parallel joint Orbita included at neck and wrist levels enables reproducing natural head and arm movements. This translates into an accurate egocentric view, and provides the opportunity to test a novel prosthesis control based on natural arm movement reconstructed by an Artificial Neural Network (ANN) that receives movement goal and stump motion as inputs. Direct first-person teleoperation by able-bodied participants (n=14) elicited a 100% success rate for grasping objects at various locations, with best possible usability scores and small workload scores. High success rates (>92%) were also obtained when all distal joints from the elbow onward were operated with the novel prosthesis control, using a movement goal identified through gaze-guided computer vision. While usability and workload scores were slightly degraded when able-bodied participants used the prosthesis control as compared to direct teleoperation, both were scored similarly well by a sample from our target population (n=8 participants with transhumeral limb loss). This platform and control schemes offer broad perspectives for prosthesis control, but also for teleoperation robotics and human-robot interactions.

Context-based control with full wrist mobility surpasses current transradial myoelectric prostheses during reaching in virtual reality

Lucas Bardisbanian, Vincent Leconte, Emilie Doat, Remi Klotz, Aymar de Rugy (Université de Bordeaux, CNRS, INCIA)