Décidément, les recherches sur notre organe cérébral pleuvent en ce moment ! Entre la cartographie du cerveau conçue par Harvard et Google, cette étude concernant les effets des jeux mobiles sur celui-ci ou celle révélant certains mécanismes de la mémorisation, nous sommes servis. Cette fois-ci, c’est une étude parue le 28 mai dans la revue PLOS Biology, menée par une équipe internationale de chercheurs, dirigée par Andrew Chang de l’Université de New York qui s’est penchée sur une autre thématique.
Celle de la capacité du cerveau à distinguer immédiatement la musique des paroles. Un processus complexe, enfin décrypté, qui pourrait changer la donne pour améliorer les thérapies pour les personnes atteintes de troubles du langage comme l’aphasie (perte partielle ou complète de la disposition à s’exprimer).
L’amplitude et la fréquence : des marqueurs fondamentaux
La distinction entre musique et parole réside dans des paramètres acoustiques très basiques. Comme l’explique Andrew Chang : « Bien que la musique et la parole diffèrent de plusieurs façons, allant de la hauteur à la texture sonore, nos résultats montrent que le système auditif utilise des paramètres acoustiques remarquablement simples pour distinguer la musique et la parole ».
En effet, les compositions musicales présentent une modulation d’amplitude relativement stable oscillant entre 1 et 2 Hz, tandis que la parole fluctue à des fréquences supérieures, comprises entre 4 et 5 Hz. À titre d’exemple, le rythme du morceau Superstition de Stevie Wonder se situe aux alentours de 1,6 Hz, quand Roller Girl d’Anna Karina culmine à 2 Hz.
Afin d’approfondir leur compréhension de ce phénomène, Chang et ses collègues ont mené quatre expériences impliquant plus de 300 participants. Lors de ces dernières, les sujets se sont vus présenter des segments sonores synthétiques imitant la musique ou la parole, mais modifiés de sorte à faire varier vitesse et régularité de la modulation d’amplitude. Par la suite, on leur demandait alors d’identifier si les sons entendus étaient de la musique ou des paroles.
Les résultats ont révélé que les segments plus lents et réguliers (<2 Hz) étaient perçus comme de la musique, tandis que les segments plus rapides et irréguliers (~4 Hz) étaient assimilés à de la parole. Les chercheurs en ont conclu que notre cerveau recourt de manière automatique à ces indices acoustiques pour classer les sons. Un phénomène que les scientifiques ont comparé à celui qui nous fait « voir des visages dans les nuages », connu sous le nom de paréidolie. Il s’agit en réalité d’une tendance du cerveau humain à percevoir des formes familières, souvent des visages humains, dans des stimuli visuels aléatoires ou non structurés.
Applications thérapeutiques pour les troubles du langage
Comprendre les mécanismes par lesquels notre cerveau opère la distinction entre musique et parole est une avancée importante pour le traitement des troubles du langage. Comme le notent les auteurs, ces connaissances sont susceptibles d’aider à l’amélioration des programmes de réhabilitation destinés aux patients aphasiques, en recourant, par exemple, à la thérapie par intonation mélodique (TIM).
Cette méthode se fonde sur l’idée que la musique et le chant peuvent activer différentes parties du cerveau impliquées dans la communication et le langage (aire de Broca, aire de Wernicke, cortex auditif ou cortex moteur entre autres). En chantant des phrases ou des mots sur des mélodies simples, les personnes peuvent ainsi apprendre à contourner les zones du cerveau endommagées et à utiliser des voies alternatives pour réapprendre à communiquer. De ce fait, savoir ce qui rend la parole et la musique similaires ou distinctes dans le cerveau pourrait aider à concevoir des programmes de réhabilitation plus efficaces.
Les découvertes issues de cette étude, soutenue par The National Institute on Deafness and Other Communication Disorders (Institut National de la Surdité et Autres Troubles de la Communication) ainsi que les bourses en neurosciences Leon Levy, ouvrent de nouvelles perspectives pour les thérapeutes et chercheurs. En identifiant plus précisément les paramètres acoustiques exploités par notre cerveau, ils se trouvent désormais en mesure de développer des exercices spécifiques visant à tirer parti des capacités de détection musicale des patients pour améliorer leur communication verbale.
- Une nouvelle étude a étudié les mécanismes à l’œuvre dans le cerveau qui l’aident à distinguer la musique de la parole.
- Cette distinction est rendue possible grâce à la différenciation des amplitudes et des fréquences sonores.
- Une découverte qui facilitera la conception de thérapies pour les personnes atteintes de troubles de la communication.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.