Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français fr
CORDIS - Résultats de la recherche de l’UE
CORDIS
Contenu archivé le 2024-05-29

The neural basis of speech and sign language perception in hearing and deaf people: transcranial magnetic stimulation and functional MRI Studies

Objectif

The human brain enables efficient interpersonal communication. The remarkable ability to speak and to understand speech sounds produced by others is important for hearing people. It is possible to understand speech and improve perception of auditory speech also by viewing a speakers articulatory gestures, i.e. by speechreading. This is a particularly useful skill for deaf people.

Furthermore, deaf people communicate fluently by hand gestures, i.e. by using sign language. How the human brain is functionally organized to process efficiently communicative signals is one of the fundamental questions of cognitive neuroscience. Here, we aim to disclose the neural basis of perceiving heard and seen speech and signs in hearing and deaf people.

Previous neuroimaging studies have shown that a left-lateralized fronto-temporal network including posterior superior temporal (pST), inferior frontal (IF) and the primary motor (M1) cortices is activated during processing of communicative signals. However, whether these brain regions are necessary for speech and sign language perception has remained open. We will first localize the brain regions activated by communicative signals in individual subjects by functional magnetic resonance imaging (fMRI).

Then, in order to determine the roles of pST, IF and M1 cortex in processing heard and seen speech and sign language, we will use repetitive transcranial magnetic stimulation (rTMS) to create temporary lesions of individually-localized foci in these regions during performance of behavioural tasks. As rTMS induces noise into neural processes, subjects performance will be disrupted by rTMS to brain regions, which are necessary for the behavioural task.

Thus, by using this method, we will be able to determine whether the pST, IF and M 1 cortices are necessary for speech and sign language perception in hearing and deaf people. The findings will substantially extend our knowledge about the neural basis of interpersonal communication.

Champ scientifique (EuroSciVoc)

CORDIS classe les projets avec EuroSciVoc, une taxonomie multilingue des domaines scientifiques, grâce à un processus semi-automatique basé sur des techniques TLN. Voir: Le vocabulaire scientifique européen.

Vous devez vous identifier ou vous inscrire pour utiliser cette fonction

Mots‑clés

Les mots-clés du projet tels qu’indiqués par le coordinateur du projet. À ne pas confondre avec la taxonomie EuroSciVoc (champ scientifique).

Thème(s)

Les appels à propositions sont divisés en thèmes. Un thème définit un sujet ou un domaine spécifique dans le cadre duquel les candidats peuvent soumettre des propositions. La description d’un thème comprend sa portée spécifique et l’impact attendu du projet financé.

Appel à propositions

Procédure par laquelle les candidats sont invités à soumettre des propositions de projet en vue de bénéficier d’un financement de l’UE.

FP6-2005-MOBILITY-5
Voir d’autres projets de cet appel

Régime de financement

Régime de financement (ou «type d’action») à l’intérieur d’un programme présentant des caractéristiques communes. Le régime de financement précise le champ d’application de ce qui est financé, le taux de remboursement, les critères d’évaluation spécifiques pour bénéficier du financement et les formes simplifiées de couverture des coûts, telles que les montants forfaitaires.

EIF - Marie Curie actions-Intra-European Fellowships

Coordinateur

THE CHANCELLOR, MASTERS AND SCHOLARS OF THE UNIVERSITY OF OXFORD
Contribution de l’UE
Aucune donnée
Coût total

Les coûts totaux encourus par l’organisation concernée pour participer au projet, y compris les coûts directs et indirects. Ce montant est un sous-ensemble du budget global du projet.

Aucune donnée
Mon livret 0 0