Expérience 5 : Etude de l’encodage du voisement d’un son de parole par le tronc cérébral

La perception de la parole requiert des mécanismes capables d’analyser et d’encoder à la fois les modifications spectrales (fréquence) et temporales du signal acoustique.

Des études comportementales chez le singe ont mis en évidence le rôle des propriétés spécifiques du système auditif dans les phénomènes catégoriels et phonétiques. Les réponses temporelles enregistrées au niveau du cortex auditif primaire (A1) reflètent à la fois un encodage différent des consonnes voisées et non voisées ainsi que la frontière perceptive dont elle serait un corrélat neurophysiologique (Steinschneider et coll., 1995 & 1999). L’étude temporelle des réponses à des sons de parole au niveau du cortex auditif montrent l’importance des mécanismes de traitement temporel dans la perception du voisement. Des études effectuées chez le singe révèlent des schémas d’activités différents : en effet, les consonnes non voisées induisent en langue anglaise une réponse de type « double pic » au niveau de A1 (les bouffées étant verrouillées à la fois sur la libération de la consonne et le début de la vibration des cordes vocales) alors qu’une consonne anglaise voisée n’induit qu’un monopic (la seule bouffée de réponse étant verrouillée sur la libération de la consonne). De plus, le verrouillage de phase sur l’onset augmenterait lorsque l’on passe sur le plan perceptif d’une consonne voisée à une consonne non voisée. Ainsi, la perception d’une consonne voisée serait facilitée quand une seule réponse évoquée est engendrée au niveau cortical, alors que la perception de consonne non voisée serait engendrée par deux réponses individualisables : l’une en réponse à la libération de la consonne et l’autre en réponse au début de la mise en vibration des cordes vocales. La limite entre ces deux schémas de réponse représente la frontière perceptive (Steinschneider et coll., 2005).

Chez l’humain, il existe différentes méthodes d’exploration du traitement du signal acoustique, principalement au niveau cortical, dont l’IRM et la mesure de l’activité d’un neurone font partie. Certaines études utilisant le stéréoélectroencéphalogramme ont mis en évidence un encodage de la structure temporelle du langage par l’hémisphère gauche humain. En effet, les consonnes voisées et non voisées sont traitées différemment au niveau de l’hémisphère gauche, suggérant un traitement temporel spécifique avec l’activation successive des différents neurones, celui-ci n’étant pas retrouvé dans les structures hémisphériques droites. Ainsi, le traitement temporel de l’information acoustique apparaît être plus développé dans l’hémisphère gauche, chez l’humain, alors que ce mécanisme est bilatéral chez le singe (Liégeois et coll., 1999).

Au niveau sous cortical, la seule technique permettant une analyse temporelle et fréquentielle précise, est les PEASP, par sa capacité à donner en temps réel et sur une large population neuronale un aperçu de l’encodage de la parole (Kraus et al, 1998).

L’intérêt de cette expérience repose sur la mise en évidence d’un encodage du voisement dès l’étape sous corticale du traitement du signal, au niveau du tronc cérébral. Un mauvais traitement de la parole, et donc de ses indices acoustiques, pouvant être à l’origine de troubles de la lecture, et de l’écriture (Giraud et al, 2008).