La perception visuelle est utile au cerveau pour prédire les stimuli auditifs émis par un interlocuteur. Des scientifiques du Laboratoire de neurosciences cognitives (LNC, Inserm/ENS Paris) et du Centre de recherche de l'institut du cerveau et de la moelle épinière (CRICM, CNRS/Inserm/Université Pierre et Marie Curie) démontrent que l'exécution de ce phénomène d'intégration multisensorielle de l'information se traduit par des changements de fréquence et de distribution spatiale de l'activité corticale. Ce travail a été publié le 8 mai 2011 sur le site de la revue
Nature neuroscience.
La perception est un processus actif qui dépend non seulement des informations provenant de nos sens, mais aussi des hypothèses que notre cerveau formule à partir de ces informations, souvent incomplètes. Lors d'une conversation bruitée par exemple, le traitement effectué par le cerveau consiste essentiellement à restaurer les informations manquantes sur la base d'informations partielles et à prédire celles qui vont suivre. Au cours d'une discussion en face à face, nous percevons en effet les mouvements labiaux de notre interlocuteur avec une légère avance sur l'information vocale, ce qui permet la prédiction, automatique et inconsciente, des stimuli prononcés. Cette prédiction accélère l'intégration des informations et limite les ressources dédiées à leur traitement.
Bien que le principe de ce type de codage dit "prédictif" soit très largement admis, les mécanismes qui le sous-tendent sont encore mal connus. Une hypothèse serait que l'information ascendante, allant des sens vers le cerveau, propage les erreurs de prédiction, alors que l'information descendante, allant du cerveau vers les sens, véhicule les hypothèses formulées par le cerveau. Une seconde hypothèse complémentaire suppose que les deux types d'information neurale empruntent des canaux fréquentiels différents, leur permettant entre autre de ne pas interférer.
Grace à des enregistrements magnéto-encéphalographiques réalisés chez des sujets humains sains, les chercheurs du LNC et du CRICM montrent que la prédiction correcte d'un son à partir des mouvements labiaux induit une synchronisation de rythmes oscillatoires basse fréquence (delta, 3-4 Hz) entre des aires corticales de haut niveau. Lorsqu'au contraire le stimulus auditif perçu ne correspond pas aux attentes du cerveau (prédiction incorrecte), l'aire cérébrale qui intègre ces informations multisensorielles, le sillon temporal supérieur, génère un signal d'erreur de prédiction. Ce signal se traduit par une transition de l'activité corticale vers un régime couplant des rythmes cérébraux de plus haute fréquence. Alors que le rythme gamma (60-80 Hz) reflète la propagation ascendante de ce signal d'erreur au sein d'aires corticales de bas niveau, le rythme beta (14-16 Hz) reflète la transmission descendante de nouvelles prédictions expliquant les causes probables de ces erreurs.
Figure: Lorsque la parole entendue valide la prédiction visuelle basée sur le mouvement des lèvres, l'information "phonologique" se propage vers les régions cognitives de haut niveau où elle est décodée. Ce processus met en jeu des oscillations lentes. Dans le cas inverse, le flux d'information est interrompu et redirigé vers les régions sensorielles en impliquant des oscillations enchâssées dans les bandes beta et gamma. De nouvelles hypothèses sont testées et une nouvelle erreur de prédiction, minimisée, est redéployée (schéma de droite). © LNC, Luc Arnal
Référence:
Transitions in neural oscillations reflect prediction errors generated in audiovisual speech, Luc Arnal, Valentin Wyart, Anne-Lise Giraud, Nature neuroscience 14(6):797-801, Published online May 8, 2011, doi:10.1038/nn.2810.