Des chercheures lyonnaises ont présenté à des macaques rhésus des images destinées à créer un contexte émotionnel amical ou hostile tout en les soumettant à différents types de cris de leurs congénères. Elles ont constaté que lorsque les cris sont incohérents avec le contexte, l’activité cérébrale est inhibée, et inversement. Preuve que ces primates sont comme les humains capables d’interpréter les signaux de leur environnement en fonction du contexte socio-émotionnel.
Certainement vous est-il arrivé, lors d’une soirée entre amis ou d’une réunion de famille, de rire de bon cœur avec les autres sans forcément avoir entendu le trait d’humour qui a provoqué l’hilarité générale. Que dit cette situation ? Tout simplement que l’appartenance au groupe prime parfois sur d’autres considérations. Dans ce cas, ne pas rire avec les autres pourrait donner l’impression de ne pas partager leur sens de l’humour. Autre situation : lorsque vous rentrez chez vous tard le soir et que vous passez à côté d’un groupe d’individus animés, vous allez chercher à analyser rapidement leurs visages et leurs voix afin d’anticiper un potentiel danger. Ces deux exemples montrent à quel point, dans notre vie sociale, il est important de savoir interpréter correctement les signaux qui proviennent de notre environnement. Tâche complexe car ces signaux possèdent des caractéristiques à la fois sensorielles, émotionnelles et sémantiques. Chacun d’entre nous aura ainsi sa manière de les décrypter en fonction de son expérience, de son acuité sensorielle et de sa compréhension du contexte.
De nombreux chercheurs ont étudié le traitement des informations sociales telles que les visages et les voix. Leurs travaux ont notamment permis d’identifier des aires très spécifiques dans le cerveau (Belin et al., 2018; Hesse & Tsao, 2020) [1,2]. Ils se sont aussi intéressés au phénomène d’intégration multisensorielle, qui permet d’associer deux informations – visuelle et auditive, en l’occurrence – pour n’en former qu’une seule [3]. En revanche, l’effet que pourrait avoir une stimulation visuelle et le contexte qu’elle met en place sur la perception auditive n’avait jamais été exploré jusqu’ici. Est-ce que le fait, par exemple, de voir des visages tristes et fermés à un enterrement modifie notre manière de percevoir des pleurs – signal congruent – ou des rires – signal incongruent ? En d’autres termes, perçoit-on de la même manière une voix avec une émotion qui correspond au contexte que l’on perçoit visuellement et une voix avec une émotion en décalage avec ce contexte ? Et si ce n’est pas le cas, cette différence se voit-elle au niveau de l’activation du cerveau ou du rythme cardiaque ?
Que se passe-t-il dans le cerveau du macaque lorsqu’on lui présente un visage amical tout en lui faisant entendre un cri d’alerte ?
C’est pour tenter de répondre à ces questions que l’équipe de Suliann Ben Hamed, directrice de recherche à l’Institut des sciences cognitives-Marc-Jeannerod, a réalisé une expérience avec des macaques rhésus, primates souvent recrutés pour mieux comprendre nos propres comportements. Les chercheures leur ont montré des visages présentant une émotion (grimace agressive, peur, mimique d’apaisement…) ou des scènes de vie à caractère émotionnel (épouillage, fuite, conflit…) afin d’établir un contexte social. Elles leur ont ensuite fait entendre une voix correspondant émotionnellement ou non aux contextes mis en place par les visages ou par les scènes. Elles leur ont ainsi présenté un contexte montrant des visages « affiliatifs », c’est-à-dire amicaux (macaques faisant des mimiques faciales avec les lèvres, ou lipsmacks) avec des cris d’alerte – signal incongruent – ou des vocalises d’apaisement (coos) – signal congruent. « Grâce à des mesures de fréquence cardiaque et d’imagerie à résonance magnétique, nous avons montré que les macaques sont capables d’interpréter des stimuli sociaux complexes et de les associer sur la base de leur congruence, explique Mathilda Froesel, première autrice de l’étude publiée dans la revue Nature Communications [4]. Plus précisément, l’activité cérébrale des macaques est augmentée lorsque les vocalisations sont émotionnellement congruentes avec les visages ou les scènes (cri d’alerte et scène de fuite, par exemple) mais inhibée lorsque les vocalisations sont incongruentes avec les visages ou les scènes (cri d’alerte et scène d’épouillage). Par ailleurs, le rythme cardiaque est plus important pendant l’écoute des vocalisations incongruentes. » (Voir illustration ci-dessous.)
Que peut-on conclure de cette expérience ? Le cerveau inhibe le traitement des vocalisations lorsqu’elles ne correspondent pas au contexte social. Ce qui explique pourquoi on n’entendra moins un cri d’alerte dans un contexte de détente en famille que lorsqu’on est en présence d’individus possiblement dangereux. Ces résultats peuvent surprendre car ils vont à l’encontre de la théorie du codage prédictif, qui implique une activation plus importante du cerveau à la suite de l’apparition d’un stimulus inattendu. Comment expliquer cette apparente contradiction ? Une hypothèse serait que notre cerveau est entrainé à associer les informations afin de les comprendre, de les percevoir et d’interagir le plus rapidement et le plus efficacement possible dans notre environnement. Ces processus étant très gourmands en énergie, un système d’association-filtrage pourrait avoir été mis en place afin de se focaliser uniquement sur les informations en rapport avec ce contexte plutôt que de sur-réagir à un stimulus qui n’y correspond pas.
Cette implication de la dimension sociale et contextuelle dans la perception nécessite une compréhension complexe des stimuli sociaux et de l’environnement qui peut paraitre a priori très humaine. Cette étude montre – c’est une première – que ce n’est pas le cas : les macaques sont capables d’associer les indices sociaux sur la base de leur contenu émotionnel de la même façon que les humains.
Références
[1] Hesse, J. K., & Tsao, D. Y. (2020). The macaque face patch system : A turtle’s underbelly for the brain. Nature Reviews Neuroscience, 1‑22.
[2] Belin, P., Bodin, C., & Aglieri, V. (2018). A “voice patch” system in the primate brain for processing vocal information? Hearing Research, 366, 65‑74.
[3] Spence, C. (2007). Audiovisual multisensory integration. Acoustical Science and Technology, 28(2), 61‑70.
[4] Froesel M, Gacoin M, Clavagnier S, Hauser M, Goudard Q, Ben Hamed S. (2022). Socially meaningful visual context either enhances or inhibits vocalisation processing in the macaque brain. Nature Communications.