2.4. Discussion :

Le recueil des traces PEASP apparait être meilleur sur la voie 1 (dipôle vertex-oreille droite), ce qui concorde avec les données précédentes de Hornickel et al (2009), le son envoyé au niveau de l’oreille droite étant encodé préférentiellement au niveau du cortex gauche. En effet, les éléments temporaux et harmoniques (représentant le filtre) de la parole sont préférentiellement encodés selon le trajet reliant l’oreille droite à l’hémisphère gauche (Hornickel et al, 2009).

Par ailleurs, on observe un encodage des sons de parole préservé dans les conditions de bruit blanc, se dégradant faiblement avec la diminution du rapport signal/bruit, aussi bien sur les résultats temporels que les spectrogrammes (SNR +6 et +3 dB). Les conditions de bruit utilisées étaient, même avec un rapport signal/bruit de -6, plutôt favorables, (dans la mesure où, lors des résultats comportementaux, on arrive à des scores de plus de 80% pour les scores les plus faibles), ce qui explique la relative faible dégradation des PEAPSP.

Nous n’avons pas observé de diminution plus importante de l’onset (codant la consonne) par rapport à la RSF (codant la voyelle), à la différence de Cunningham et al (2002), certainement par le masquage moins efficace de nos différents bruits (résultats visibles sur les tests subjectifs).

Toutefois, les différentes conditions de bruit ne peuvent être comparées entre elles. En effet, les conditions bruit blanc, speech noise et cocktail party ne sont pas énergétiquement comparables : les énergies globales sont identiques mais leur répartition sur le spectre fréquentiel est différente : ainsi, l’énergie du speech noise sur les fréquences habituellement dévolues à la parole, sera beaucoup plus importante que l’énergie du bruit blanc pour les mêmes fréquences. Ainsi, la bonne synchronisation de la RSF observée dans les conditions de bruit blanc s’expliquent par une répartition homogène du bruit sur l’ensemble de la gamme fréquentielle et donc un « masquage » inférieur pour une fréquence donnée à celui produit par le cocktail party ou le speech noise.

Il aurait été intéressant de poursuivre cette étude en incluant des personnes gênées dans le bruit afin de comparer leurs résultats avec ceux des sujets normo-entendants de cette étude.

Par ailleurs, le fait de ne pas pouvoir analyser les traces de PEASP en termes de résultats individuels, ne nous permet pas de faire une corrélation entre les résultats obtenus sur le plan comportemental, et ceux des PEASP. En effet, il serait important de voir si un sujet se dégradant particulièrement en situation de bruit adverse au niveau comportemental, verrait ses traces de PEASPfortement dégradées. Une première approche de ce type a été réalisée par l’équipe de N. Kraus, qui a montré une perturbation de l’encodage neural par le bruit, celui-ci étant corrélé avec l’incapacité à percevoir la parole dans des conditions adverses (Anderson et al, 2010). Afin de s’approcher de résultats interprétables à l’échelon individuel, en utilisant des stimuli écologiques Français, nous avons décidé d’essayer d’améliorer la technique de recueil utilisée. Toutefois, en reprenant les résultats de Anderson et al, 2010, on peut remarquer que le diagnostic de troubles d’audition dans le bruit, basé sur les PEAPSP, n’est pas encore réalisable à l’échelon individuel.