Expérience 2 : Etude de l’encodage des sons de parole dans différentes conditions de bruit :

2.1. Introduction :

Dans notre environnement quotidien, tenir une conversation à plusieurs peut parfois s’avérer un véritable défi. L’intégration des sons de parole en éléments porteurs de sens, quelles que soient les conditions de bruit, est une nécessité pour la communication de tous les jours. Toutefois, dans une scène auditive contenant plusieurs sources sonores, nous sommes capables de sélectionner un signal sonore qui nous intéresse. Il existe un effet de l’attention sur la perception de la parole. La perception de la parole dans le bruit consiste à séparer le signal acoustique pertinent du bruit (Bronkhorst & Adelbert, 2000). Notre système auditif applique des stratégies de ségrégation qui utilisent des règles précises pour distinguer les différents flux de la scène auditive (Cherry, 1953 ; Bronkhorst & Adelbert, 2000).

Le démasquage de la parole (l’amélioration substantielle de l’intelligibilité de la parole dans un bruit fluctuant par rapport à un bruit stationnaire, observée chez les sujets entendants), est systématiquement réduit voire aboli chez les personnes présentant une perte cochléaire et les personnes porteuses d’un implant cochléaire. Ceci suggère qu’aux niveaux de bruit de fond pour lesquels les personnes entendantes atteignent une intelligibilité parfaite, la plupart des personnes malentendantes ne comprennent quasiment rien (Shinn-Cunningham, 2009). De nombreuses études indiquent que le phénomène de démasquage dépend de la capacité à écouter le signal de parole dans les vallées spectro-temporelles du bruit de fond, où le rapport signal-sur-bruit est localement amélioré. Parmi les différents déficits sensoriels associés à une perte cochléaire, la dégradation de la sélectivité fréquentielle et un trouble de la perception des informations de structure temporelle fine semblent participer à la réduction substantielle du démasquage observée chez les sujets malentendants. Cette hypothèse est motivée par le fait qu’une lésion cochléaire ne semble pas affecter la capacité à suivre les fluctuations d’amplitude lentes, alors qu’elle dégrade quasi systématiquement la capacité à accéder aux informations spectrales et de structure temporelle fine, et ce parfois pour des pertes légères (< 30 dB HL) (Lorenzi et al, 2006).

Des études précédentes mettent en évidence une vulnérabilité accrue des consonnes par rapport aux voyelles dans le bruit, similitudes se retrouvant dans le PEASP. En effet, le PEASP ou « speech ABR » peut être divisée en 2 parties : l’onset response et la RSF ou « FFR », la première étant engendrée par la consonne contenue dans le stimulus, apparaît être dégradée de manière plus nette dans le bruit par rapport a la FFR (Boston & Moller 1985 ; Cunningham et al, 2001 ; Russo et al, 2004). Par ailleurs, Russo et al 2004, ont mis en évidence le rôle des parties impulsionnelles et soutenues, quant à l’encodage des différents aspects du stimulus le long du tronc cérébral, suggérant une représentation indépendante pour ces deux types de réponses.

L’objectif de cette expérience est de pouvoir disposer de données neurophysiologiques chez le normo entendant, afin d’objectiver la modification d’encodage des signaux langagiers par les différentes conditions de bruit, ceci dans le but futur de réitérer l’expérience chez des personnes souffrant de troubles de l’intelligibilité dans le bruit.