Measuring and predicting structure processing in sounds and language

Structure detection and manipulation are essential to our cognitive abilities. We analyze sounds based on their structure and communicate through sentences structured according to our language syntax. To understand how structures are processed, researchers perform neural recording or turn to artificial models, including large language models (LLM). Our two speakers will successively focus on these two aspects to deliver a precise and broad overview of structure processing, in the brain and as modeled by LLM.

Human Auditory Ecology, a new interdisciplinary field

Logo MNHNThe aim of these interdisciplinary colloquia, organized as part of a partnership between the Muséum national d'Histoire naturelle and the Ecole normale supérieure (Université PSL), is to promote the scientific study of the human auditory system's ability to perceive ecological processes at work in natural habitats, by confronting hearing sciences (psychoacoustics, au

Cartographier la perception des phonèmes du français

Sans que nous en ayons conscience, notre cerveau accomplit un exploit chaque fois que nous écoutons quelqu'un parler : traduire le son perçu en une série d'unités linguistiques, les phonèmes, tout en faisant abstraction du bruit environnant. Mais sur quelles caractéristiques des sons de parole s’appuie-t-il pour réaliser cette tâche ? Par exemple : quels sont les indices acoustiques qui nous permettent de distinguer les mots bastaspasgars ou cas, ne différant que par leur phonème initial ?

La fabrique du sens : comment le cerveau compose-t-il des mots ?

Le décodage cérébral comme méthode de dissection du traitement du langage. 

Ces deux études utilisent une même méthode : celle du décodage de l'activité cérébrale par magnétoencéphalographie (MEG). Cette technique non-invasive permet de mesurer les champs magnétiques générés par l'activité neuronale dans le cortex: lorsque les neurones s’activent, les courants électriques génèrent instantanément des champs magnétiques.

Investigating the human binocular visual system using multi-modal magnetic resonance imaging

Seeing in stereoscopic depth relies on the slight differences in the images in the two eyes resulting from their horizonal separation. As the inputs from the eyes are first combined in the primary visual cortex (V1), human brain imaging can be used to investigate the earliest stages of processing. To perceive depth, binocular neurons in V1 need balanced input from the two eyes, likely established by mutual inhibition, whereby activation of one eye inhibits the other eye. Thus, when input from the two eyes is comparable, both will contribute equally to binocular vision to promote 3D vision.