3.3. Traitement des composants phonologiques du LPC (Lecture labiale et clés du LPC)

3.3.1. Traitement « hiérarchique » ou « simultané » des deux informations ?

Chez les entendants, la lecture labiale est très précoce et est traitée par le système cognitif de façon automatique lors du traitement du langage parlé (Burnham & Dodd, 1996 ; Kuhl & Meltzoff, 1988 ; MacKain et al., 1983). La question que l’on peut se poser est alors de savoir si les clés du LPC peuvent également être traitées simultanément avec la lecture labiale. En se référant à la théorie Motrice de la parole avancée par Liberman et Mattingly (1985), selon laquelle la parole serait traitée par un système spécialisé pour la perception phonétique, qui reconstituerait la structure du message en utilisant l’information acoustique ainsi que l’information délivrée par les lèvres uniquement, nous pourrions répondre de façon négative à cette question. Cependant, des études ont amené à revisiter cette théorie. Celles-ci ont montréque des stimuli non langagiers peuvent être traités en lien avec la lecture labiale lors de la perception de la parole. Par exemple, Rosen et al. (1979, cité par Boë et al., 2003) ont démontré que l’ajout d’un signal auditif non langagier (signal laryngé issu d’un laryngographe porté par le locuteur, sous forme d’impulsions (transmises par prothèse tactile ou autre)) à la lecture labiale améliore substantiellement la perception de la parole, suggérant qu’un stimulus non langagier « artificiel » peut être intégré avec lecture labiale naturelle dans le traitement de la parole. Par ailleurs, Fowler et Deckle (1991) ont examiné qu’un effet McGurck pouvait apparaître lorsque le sujet recevait des informations divergentes par l’audition et par le toucher. Au lieu de voir les mouvements de lèvres de l’émetteur, comme dans l’expérience classique, le sujet pose un doigt sur celles-ci afin de les percevoir uniquement par le toucher. Par exemple, le sujet entend « ga » et sent avec son doigt les lèvres de l’expérimentateur prononçant soit un « ba » soit un « ga ». Les résultats montrent que l’interaction tactile influence la perception de ce qui est entendu : le sujet déclare plus souvent entendre un « ba » lorsque l’information perçue par le toucher est un « ba » que lorsqu’elle est un « ga ».

Ces exemples suggèrent que le système de traitement de la parole peut accepter une variété de signaux non langagiers comme s’il traitait une valeur phonémique. Autrement dit, l’être humain pourrait apprendre à extraire de l’environnement des informations pertinentes sur les contrastes phonémiques de la langue orale, même si ces informations ne sont pas liées naturellement à la production de la parole. Considérant le fait que le LPC délivre un message structuré phonologiquement, délivré séquentiellement sur une certaine durée temporelle, se peut –il que les clés du LPC soient traitées de la même manière ?

Cette réflexion a conduit Alegria (1998) à s’interroger sur la manière dont la combinaison de la lecture labiale et des clés du LPC peut produire un percept de parole unique. Deux traitements peuvent être envisagés : « hiérarchique » supposant que les clés du LPC soient utilisées seulement lorsque l’information délivrée par la lecture labiale est ambiguë ; « automatique » supposant que les informations délivrées par la lecture labiale et par les clés du LPC soient combinées pour spécifier les contrastes phonologiques. Dans le premier traitement, le LPC joue un rôle mineur ; il représente une source optionnelle d’information dans le cas de tâche de résolution de problèmes. En revanche, dans le deuxième traitement, le LPC joue un rôle central autant que la lecture labiale dans la perception du message oral ; la critique que l’on peut faire concernant ce deuxième traitement est que le mécanisme de traitement de la parole ne peut pas interpréter des entrées artificielles comme la configuration et la position de la main. Or, comme nous venons de le montrer précédemment, le système de traitement de la parole accepte une variété de signaux non langagiers comme s’il traitait une valeur phonémique. Il est cependant difficile de penser que des enfants sourds de 5 ou 6 ans qui n’ont pas de représentations phonologiques de certains contrastes phonétiques (ex. voisement) peuvent utiliser le LPC pour distinguer /p/ de /b/, et /z/ de /ch/. Mais cela peut être différent lorsque le LPC peut être utilisé comme mode de communication privilégié dans un contexte familial et de façon précoce. La question alors n’est pas de savoir si le LPC peut participer à la perceptiondes contrastes phonologiques mais plutôt au développement de ces contrastes. L’utilisation précoce du LPC semble prépondérante. Cette idée est renforcée par les résultats montrant que les enfants exposés intensivement au LPC et à un âge précoce possèdent des représentations phonologiques non distinguables de celles des enfants entendants. Il est possible que les enfants qui ont eu une exposition précoce au LPC puissent l’utiliser directement dans l’élaboration de représentations phonémiques de la parole, alors que les enfants sourds avec exposition tardive au LPC ne l’utiliseraient principalement que comme mode de résolution de problème. Selon Alegria (1998), cette question demeure importante pour déterminer les opérations du mécanisme de perception de la parole.

Dans le but de comprendre comment les informations des clés manuelles et de la lecture labiale pourraient être combinées pour produire une perception phonologique unitaire, Alegria et al. (1999) ont examiné les erreurs de perception phonologique induites par les caractéristiques structurales du LPC. Pour cela, ils ont présenté des pseudo-mots ayant soit une structure canonique (CV-CV) ou une structure non canonique (VC-CV, V-CVC, V-CCV). Deux types d’erreurs sont analysées : des erreurs de substitution impliquant la production d’une consonne au lieu d’une autre qui partage la même configuration de main (percevoir /da/ au lieu de /ja/ peut résulter du fait que /d/ et /j/ partagent la même configuration de la main) ; et des erreurs d’intrusion d’extra syllabes dans des items requérant plus de clés LPC qu’ils ne possèdent de syllabes (deux clés LPC sont requises pour coder une simple syllabe CCV ou CVC).Ces erreurs peuvent dépendre en partie de la façon dont est traitée l’information du LPC en lien avec l’information de la lecture labiale. Par exemple, la seule façon de discriminer les syllabes /da/ de /ja/ qui partagent la même configuration de la main est de décoder l’information labiale délivrée respectivement par les consonnes initiales /d/ et /j/. De manière similaire, la distinction entre les syllabes /lo/ et /la/ qui partagent la même position de la main dépend de l’information labiale délivrée par les voyelles /a/ et /o/. Les erreurs d’intrusion peuvent s’expliquer par le fait que les participants perçoivent les clés neutres comme des phonèmes réels. Par exemple, dans la syllabe /ar/, la voyelle /a/ est codée avec une configuration de main neutre (mais identique à celle des consonnes /m, t, f/ et la consonne /r/ est codée à l’aide d’une position de main neutre (partagée avec les voyelles /a, o, е/. Par conséquent, /ar/ peut être interprétée de manière erronée comme /ta – ro/ ou /fa-va/ et constituer alors deux syllabes. Les résultats révèlent que la proportion de perceptions erronées est plus importante dans la condition impliquant les clés du LPC que dans la condition lecture labiale seule. De plus, il semble que le nombre de clés LPC affecte le nombre de syllabes perçues, particulièrement lorsque la structure des items est non canonique. Les auteurs en concluent qu’il est parfois possible que les clés du LPC soient traitées indépendamment de la lecture labiale. Ils suggèrent également que le degré de combinaison entre la lecture labiale et les clés du LPC pourrait dépendre de l’âge d’exposition au LPC ; ce qui conforte l’idée précédemment suggérée par Alegria (1998). Mais d’autres investigations sont nécessaires ; ici les résultats ne permettent pas véritablement de trancher entre les deux modèles de traitement « hiérarchique » ou simultané » ; les erreurs observées sont trop peu nombreuses.

Attina , Beautemps et Cathiard (2002)ont étudié à travers l’analyse de signaux biologiques extraits des mouvements d’un codeur en LPC produisant des séquences syllabiques composées d’une suite de CV, les règles d’organisation temporelle (de coordination) entre des gestes manuels et oro-faciaux (main-lèvres-son). Ces enregistrements ont permis d’observer que la réalisation des clés du LPC et celles des mouvements de lèvres ne sont pas totalement synchrones. Pour une séquence CVCVCV, le geste manuel en direction de la cible démarre toujours avant le début de la consonne correspondante avec une avance moyenne de 200 ms : la main atteint sa position cible (spatiale) pendant la production de la consonne ; la cible labiale vocalique est atteinte largement après la cible LPC, soit 256 ms après environ. Le geste manuel pour coder la consonne suivante (de la deuxième syllabe) démarre en moyenne 51 ms avant l’atteinte de cette cible ; ainsi la main quitte la position cible LPC de la première syllabe pour atteindre la suivante avant que la cible labiale vocalique de la première syllabe soit atteinte. La production de la dernière voyelle de cette séquence est atteinte avant que le geste suivant de la main atteigne sa position. Cela indique que la réalisation des gestes manuels commence avant le son, comme le suggère Duchnowski (1998).

Les auteurs en concluent que contrairement à ce qui est dit dans la littérature, ce n’est peut-être pas la main qui lève l’ambiguïté délivrée par la forme labiale mais la main qui spécifie dans un premier temps un ensemble d’unités possibles, la forme labiale réduisant ensuite le choix à une seule unité. Une autre interprétation possible donnée par Leybaert et Alegria (2003) et qui nous semble plus pertinente, est que les clés du LPC tout comme les mouvements labiaux peuvent alternativement permettre de lever l’ambiguïté délivrée par l’autre source d’information. Si cette dernière supposition s’avère être juste, il semble plus adéquate de faire référence à un modèle de perception de la parole où les clés du LPC et les mouvements labiaux seraient combinés qu’à un modèle de type hiérarchique où la lecture labiale serait suivie des clés du LPC, et cela en particulier pour les personnes expérimentées en LPC.

Afin d’être le plus exhaustif possible sur cette question, nous avons voulu savoir si l’exposition au LPC pouvait entraîner une spécialisation hémisphérique similaire à celle des entendants, à savoir l’implication de l’hémisphère gauche (hémisphère spécialisé dans le traitement langagier) dans le traitement des mots codés? Et si les patrons de résultats pouvaient varier selon l’âge d’exposition au LPC.