Adrien - Lundi 28 Juillet 2025

👂 Et si nous pouvions entendre une caresse ?

À l'Institut des systèmes intelligents et de robotique (ISIR - CNRS/Sorbonne Université), Alexandra de Lagarde et Louise P. Kirsch se posent une question surprenante: et si nous pouvions entendre une caresse ? De cette réflexion est né Audio-touch, un projet de recherche qui explore de nouvelles manières de recréer le toucher social à distance.


Convertir des gestes tactiles affectifs en sons interprétables, c'est l'objectif du projet Audio-touch, mené à l'ISIR dans le cadre du programme ANR MATCH. Cette approche s'appuie sur une observation simple mais prometteuse: toucher et audition reposent tous deux sur la perception de vibrations. Elle s'inscrit dans un contexte où les interactions physiques se raréfient - isolement social, digitalisation, interactions virtuelles - alors même que le toucher est essentiel à notre développement, à notre bien-être émotionnel et à la régulation du stress.


Membres de l'ISIR, Alexandra de Lagarde, doctorante, Catherine Pelachaud, directrice de recherche CNRS, Louise P. Kirsch, maîtresse de conférences à l'Université Paris Cité et Malika Auvray, directrice de recherche CNRS, ont permis de déterminer si des gestes tels qu'une caresse, une tape ou un frottement sur la peau peuvent être sonifiés de façon à transmettre des informations socio-affectives à un auditeur ou une auditrice.

Pour cela, les chercheuses ont enregistré des gestes peau à peau à l'aide de capteurs vibrotactiles, puis transformé ces données en sons, des stimuli audio-touch. Ces sons ont alors été présentés à des participantes et participants dans une série de quatre expériences visant à évaluer leur capacité à reconnaître la nature et l'intention des gestes.

Les résultats montrent que les sons issus de gestes tactiles sont interprétables de façon cohérente:
- Les gestes sont bien catégorisés (1ère expérience),
- Leurs intentions émotionnelles sont identifiées (2ème expérience),
- Et la surface d'exécution du geste (peau humaine versus objet inanimé) influence significativement la perception du geste et celle des émotions (3ème et 4ème expériences).

Ces résultats, publiés dans la revue Proceedings of the National Academy of Sciences (PNAS), suggèrent que l'audition peut, dans une certaine mesure, véhiculer des indices normalement transmis par le toucher. En d'autres termes, il est possible de "faire entendre" une intention tactile.

Le projet s'inscrit à l'intersection de plusieurs champs: cognition sociale, perception sensorielle, interaction humain-agent, haptique et design sonore. Tandis que le projet ANR MATCH explore les illusions de toucher en réalité virtuelle via des retours multisensoriels, Audio-touch interroge spécifiquement le rôle du canal auditif dans la transmission du lien social.

En démontrant que des gestes affectifs peuvent être reconnus par leur seule traduction sonore, Audio-touch ouvre de nouvelles pistes pour le design d'interfaces sensibles à l'affect et, plus largement, pour le développement de formes alternatives de communication multisensorielle dans des environnements numérisés.
Ce site fait l'objet d'une déclaration à la CNIL
sous le numéro de dossier 1037632
Informations légales