Discours ou chanson ? Identifier comment le cerveau perçoit la musique

Résumé: Une nouvelle recherche explore les différentes façons dont le cerveau fait la distinction entre la musique et la parole.

La source: Société des neurosciences cognitives

La plupart des neuroscientifiques qui étudient la musique ont une chose en commun : ils jouent d’un instrument de musique, souvent dès leur plus jeune âge. Sa volonté de comprendre comment le cerveau perçoit et comment la musique le façonne découle d’un profond amour de la musique.

Cette passion s’est traduite par une foule de découvertes sur la musique dans le cerveau, y compris des travaux récents identifiant les façons dont le cerveau fait la distinction entre la musique et la parole, qui seront présentés aujourd’hui lors de la réunion annuelle de la Society of Music Cognitive Neuroscience (CNS) à San Francisco .

“Au cours des deux dernières décennies, de nombreuses études excellentes ont montré des mécanismes similaires entre la parole et la musique à de nombreux niveaux”, explique le violoniste de toujours Andrew Chang de l’Université de New York, qui a organisé un symposium sur la perception de la musique et de la parole lors de la réunion du CNS. .

“Cependant, une question fondamentale, souvent négligée, est de savoir ce qui fait que le cerveau traite différemment les signaux de la musique et de la parole, et pourquoi les humains ont-ils besoin de deux signaux auditifs différents ?”

Le nouveau travail, rendu possible en partie par les avancées informatiques, indique que les différences de hauteur et de rythme sont des facteurs clés qui permettent aux personnes dès la petite enfance de distinguer la parole de la musique, ainsi que la manière dont les capacités prédictives du cerveau sous-tendent la perception de la parole et de la musique.

Explorer la perception acoustique chez les bébés

Dès son plus jeune âge, la neuroscientifique cognitive Christina Vanden Bosch der Nederlanden de l’Université de Toronto, Mississauga, chante et joue du violoncelle, ce qui a contribué à façonner sa carrière de chercheuse.

“Je me souviens d’être assise au milieu de la section violoncelle et nous jouions une musique particulièrement belle, une où toute la section violoncelle avait la mélodie”, dit-elle, “et je me souviens d’avoir eu cette réaction émotionnelle et de me demander” comment est-ce possible? Puis-je avoir une réponse émotionnelle aussi forte des vibrations de mes cordes voyageant vers mon oreille ? Ça a l’air fou ! »

Cette expérience a lancé der Nederlanden dans un long voyage pour comprendre comment le cerveau traite la musique et la parole au cours du développement précoce. Plus précisément, elle et ses collègues étudient si les bébés, qui apprennent les sons communicatifs par l’expérience, connaissent la différence entre la parole et le chant.

“Ce sont des questions apparemment simples qui ont en fait beaucoup d’importance théorique sur la façon dont nous apprenons à communiquer”, dit-elle.

« Nous savons que dès l’âge de 4 ans, les enfants peuvent et facilement différencier explicitement la musique et le langage. Bien que cela semble assez évident, il y a eu peu ou pas de données demandant aux enfants de faire ce genre de distinctions.”

Lors de la réunion du CNS, der Nederlanden présentera de nouvelles données recueillies juste avant et pendant la pandémie de COVID-19 sur les caractéristiques acoustiques qui façonnent la musique et le langage au cours du développement. Dans une expérience, des bébés de 4 mois ont écouté la parole et le chant, à la fois d’une manière chantante dirigée par le bébé et d’une voix monotone, tout en enregistrant l’activité électrique du cerveau avec un électroencéphalogramme (EEG).

“Ce travail suggère d’une manière nouvelle que les nourrissons sont meilleurs pour suivre les énoncés dirigés par le bébé lorsqu’ils sont parlés que chantés, et c’est différent de ce que nous voyons chez les adultes, qui sont meilleurs pour le suivi neuronal des expressions chantées par rapport à la parole. ceux », dit-elle.

Ils ont également découvert que la hauteur et le rythme affectaient l’activité cérébrale de la parole par rapport à la chanson, par exemple, et ont découvert qu’une hauteur de ton exagérée était liée à un meilleur suivi neuronal de la parole dirigée par le nourrisson, identifiant un manque de “stabilité de hauteur”. fonction acoustique pour guider l’attention chez les nourrissons.

Alors que les contours instables et exagérés de la parole dirigée vers le bébé ont été établis comme une caractéristique que les bébés adorent, cette nouvelle recherche montre qu’elle aide également à signaler si quelqu’un écoute la parole ou la chanson.

La stabilité de la hauteur est une caractéristique, dit der Nederlanden, qui “pourrait dire à un auditeur” oh, cela ressemble à quelqu’un qui chante “” et l’instabilité de la hauteur peut, à l’inverse, signaler aux nourrissons qu’ils écoutent la parole plutôt que de jouer avec des sons dans une chanson. .

Dans une expérience en ligne, der Nederlanden et ses collègues ont demandé aux enfants et aux adultes de décrire qualitativement en quoi la musique et la langue diffèrent.

“Cela m’a donné un riche ensemble de données qui m’en dit beaucoup sur la façon dont les gens pensent que la musique et le langage diffèrent acoustiquement et aussi sur la façon dont les rôles fonctionnels de la musique et du langage diffèrent dans notre vie quotidienne”, explique-t-il.

“Pour les différences acoustiques, les enfants et les adultes ont décrit des caractéristiques telles que le tempo, la hauteur et le rythme comme des caractéristiques importantes pour différencier la parole et le chant.”

Dans ses travaux futurs, der Nederlanden espère évoluer vers des environnements plus naturels, notamment en utilisant l’EEG mobile pour tester la musique et le traitement du langage en dehors du laboratoire.

“Je pense que la fille assise dans la fosse d’orchestre, intéressée par la musique et les émotions, serait très excitée de découvrir qu’elle se pose encore des questions sur la musique et de trouver des résultats qui auraient pu répondre à ses questions d’il y a plus de 20 ans.” .

Identifier le code prédictif de la musique

Guilhem Marion de l’Ecole Normale Supérieure a deux passions qui animent ses recherches : la musique et l’informatique. Il a combiné ces intérêts pour créer de nouveaux modèles informatiques de musique qui aident les chercheurs à comprendre comment le cerveau perçoit la musique grâce au “codage prédictif”, similaire à la façon dont les gens prédisent les modèles de langage.

“La théorie du codage prédictif explique comment le cerveau essaie de prédire la note suivante tout en écoutant de la musique, ce qui est exactement ce que font les modèles informatiques de musique pour générer de la nouvelle musique”, explique-t-il. Marion utilise ces modèles pour mieux comprendre comment la culture affecte la perception de la musique, en obtenant des informations basées sur les environnements et les informations individuelles.

Voir également

Dans un nouveau travail avec Giovanni Di Liberto et ses collègues, Marion a enregistré l’activité EEG de 21 musiciens professionnels écoutant ou imaginant quatre pièces chorales de Bach dans leur esprit.

Dans une étude, ils ont pu identifier la quantité de surprise pour chaque note, en utilisant un modèle informatique basé sur une grande base de données de musique occidentale. Cette surprise était un “marqueur culturel du traitement de la musique”, dit Marion, montrant à quel point les notes étaient prédites en fonction de l’environnement musical natif d’une personne.

“Notre étude a montré pour la première fois la réponse EEG moyenne à des notes de musique imaginées et a montré qu’elles étaient corrélées avec une surprise musicale calculée à l’aide d’un modèle statistique de musique”, explique Marion.

“Ce travail a de larges implications dans la cognition musicale, mais plus généralement dans les neurosciences cognitives, car il éclairera comment le cerveau humain apprend un nouveau langage ou d’autres structures qui façonneront ensuite sa perception du monde.”

Un tel travail sur ordinateur permet un nouveau type d’étude de la cognition musicale qui équilibre un bon contrôle expérimental avec une validité écologique, dit Chang, ce qui représente un défi pour la complexité impliquée dans la musique et les sons de la parole.

Cela montre une femme portant des appareils auditifs.
Alors que les contours instables et exagérés de la parole dirigée vers le bébé ont été établis comme une caractéristique que les bébés adorent, cette nouvelle recherche montre qu’elle aide également à signaler si quelqu’un écoute la parole ou la chanson. L’image est dans le domaine public

“Vous produisez souvent des sons non naturels si tout est bien contrôlé pour votre objectif expérimental ou si vous préservez leurs propriétés naturelles de la parole ou de la musique, mais il devient alors difficile de comparer équitablement les sons entre les conditions expérimentales”, explique-t-il.

« L’approche innovante de Marion et Di Liberto permet aux chercheurs d’étudier, et même d’isoler, les activités neuronales tout en écoutant un enregistrement continu de parole naturelle ou de musique.

Chang, qui joue du violon depuis l’âge de 8 ans, est ravi de voir les progrès réalisés dans les études sur la cognition musicale au cours de la dernière décennie. “Quand j’ai commencé mon doctorat en 2013, seuls quelques laboratoires dans le monde se concentraient sur la musique”, dit-il.

“Mais maintenant, il existe de nombreux excellents chercheurs juniors et même des chercheurs seniors bien établis dans d’autres domaines, tels que la parole, partout dans le monde, qui commencent à s’impliquer ou même à se consacrer à la recherche dans les neurosciences cognitives de la musique.”

Comprendre la relation entre la musique et le langage « peut nous aider à explorer des questions fondamentales de la cognition humaine, telles que pourquoi les humains ont besoin de musique et de parole, et comment les humains communiquent et interagissent entre eux à travers ces formes », explique Chang.

“En outre, ces découvertes sous-tendent des applications potentielles dans les domaines cliniques et du développement de l’enfant, par exemple si la musique peut être utilisée comme une forme alternative de communication verbale pour les personnes aphasiques et comment la musique facilite l’apprentissage de la parole chez les bébés”.

À propos de cette actualité de la recherche sur la musique et les neurosciences

Auteur: Lisa MP Muñoz
La source: Société des neurosciences cognitives
Contact: Lisa MP Muñoz – Société des neurosciences cognitives
Image: L’image est dans le domaine public.

recherche originale : Les résultats seront présentés à la 29e réunion annuelle de la Society for Cognitive Neuroscience

Add Comment