3.3.2. Effet du LPC sur le traitement neuronal du langage

Afin de mieux comprendre l’organisation cérébrale des traitements langagiers chez la personne sourde, plusieurs expériences ont été menées par Neville (1991). Selon cet auteur, l’acquisition d’une compétence grammaticale dans une langue détermine la spécialisation hémisphérique durant le traitement de ce langage. Des mesures ont donc été effectuées sur les réponses cérébrales (potentiels évoqués) d’entendants et de sourds profonds signeurs natifs, suscitées par la présentation écrite de mots de classe ouverte ou mot pleins (comme les noms, les verbes, et les adjectifs) et de mots de classe fermée ou mots de fonction (comme les pronoms, les prépositions, les adverbes). Chez les sujets entendants, la présentation de mots fonction provoque l’apparition de réponses cérébrales plus apparentes dans l’hémisphère gauche que dans l’hémisphère droit, alors que les réponses cérébrales associées à la présentation de mots pleins sont similaires dans les deux hémisphères. Selon Neville, l’asymétrie des réponses aux mots de fonction est un indicateur fiable de la mise en œuvre d’un traitement syntaxique que ces mots suscitent. Chez ceux parmi les sujets sourds qui possèdent une bonne connaissance de la grammaire de la langue anglaise, on relève pour les mots de fonction un patron de spécialisation hémisphérique similaire à celui observé chez les sujets entendants. En revanche, chez les sujets sourds n’ayant qu’une connaissance faible de la grammaire anglaise, Neville ne découvre pas l’asymétrie observée chez les entendants en réponse aux mots de fonction, alors que leurs réponses cérébrales aux mots de contenu sont similaires à celles des entendants. Considérées dans leur ensemble, ces données suggèrent que l’acquisition précoce d’un langage formel (grammatical) est une condition nécessaire et suffisante de la consolidation de la spécialisation, génétiquement déterminée, de l’hémisphère gauche pour le traitement du langage.

Il semble donc que la nature de l’environnement linguistique auquel l’enfant est précocement exposé détermine le type de développement morpho-syntaxique qui sera réalisé. Il est dès lors légitime de se demander quel pourrait être ce développement, chez des enfants sourds dépendant essentiellement de la lecture labiale en vue de construire des habiletés morpho-syntaxiques en langue orale. De nombreux travaux montrent qu’en général, l’enfant sourd présente à cet égard des retards voire des déviances, par rapport au développement observé chez l’enfant entendant (Cooper, 1967 ; Taeschner, Devescovi, & Volterra, 1988). Il apparaît donc que cette acquisition pose de réels problèmes aux enfants sourds. D’une part, la lecture labiale seule ne permet pas un accès aisé au système morphologique de la langue. En effet, les finales des mots et les mots de fonction sont peu perceptibles au sein du flux de la parole ; les uns, parce que situés en position terminale ; les autres parce que peu accentués, brefs et peu porteurs de signification. D’autre part, l’apport de la langue des signes à l’acquisition du système morpho-syntaxique de la langue orale est restreint voire nul. La question de l’influence du LPC sur l’accès à ce système par des enfants sourds à déficience auditive profonde est donc d’une importance primordiale. Nous avons vu précédemment que l’exposition au LPC permettait une réception complète du message oral aussi bien phonologique, grammatical que sémantique. La seule différence étant la modalité par laquelle ce message est véhiculé. La question est de savoir si cette expérience linguistique donnera lieu à une spécialisation hémisphérique similaire à celle des entendants, en particulier si elle est précoce ou si c’est la modalité par laquelle elle est transmise qui est déterminante.

Pour tenter de répondre à cette question, D’Hondt et Leybaert (2003) ont comparé les patterns de latéralisation pour le traitement de stimuli écrits d’un groupe de jeunes sourds qui étaient exposés de façon précoce ou tardive au LPC (âge moyen situé entre 14 et 19 ans) à des enfants entendants (âge moyen : 11 ans) et adultes entendants (âge moyen : 20 ans). Deux conditions linguistiques (phonologique et sémantique) et une condition non linguistique (visuelle) étaient traitées dans cette expérience. Pour l’ensemble des participants, de meilleures performances étaient attendues dans les conditions phonologique et sémantique, pour les mots présentés dans l’hémichamp visuel droit (HVD) par rapport aux mots présentés dans l’hémichamp visuel gauche (HVG) ; dans la condition visuelle, aucune différence de performance n’était attendue selon le lieu de présentation des stimuli (HVD vs HVG). Le matériel comporte des paires de stimuli écrits ; le premier stimulus était présenté au centre de l’écran et le second était présenté latéralement, soit dans l’hémichamp visuel droit, soit dans l’hémichamp visuel gauche. Les participants devaient effectuer, dans la condition phonologique, un jugement de rimes sur des paires de mots ayant une orthographe différente ; par exemple, est-ce que « feu » (stimulus central) et « nœud » (stimulus latéral ») riment ? Dans la condition sémantique, un jugement sémantique ; par exemple, est-ce que « lapin » (stimulus central) et « rat » (stimulus latéral ») appartiennent à la même catégorie sémantique ? Dans la condition visuelle, un jugement visuel ; par exemple, est-ce que « EeeE » (stimulus central) et « Eeee » (stimulus latéral ») sont visuellement identiques ou non ? Les résultats obtenus confirmaient en partie les prédictions faites par ces auteurs. En effet un contraste est apparu en fonction du traitement linguistique en jeu. Ainsi pour la condition sémantique, les participants sourds LPC et entendants ont obtenu un patron de résultats suggérant une supériorité de l’hémisphère gauche pour la réalisation de cette tâche. En revanche pour la condition phonologique, les résultats des sourds et entendants étaient sensiblement différents. L’avantage de l’hémichamp visuel droit observé chez les sourds LPC était moins important que celui obtenu par les entendants. Pour la condition visuelle, les sourds LPC et entendants appariés n’ont montré aucune influence de la latéralité.

Il semble donc selon les auteurs que l’exposition à un input linguistique formel ne soit pas le seul facteur déterminant la mise en place de la spécialisation hémisphérique pour le traitement linguistique des mots écrits. La différence principale entre sourds et entendants est la modalité via laquelle ils acquièrent la langue française. Cette acquisition atypique du langage pourrait avoir des conséquences différentes sur l’organisation cérébrale selon le mode de traitement linguistique mis en jeu. Cependant, nous ne pouvons rejeter la possibilité que les différences observées puissent être dues, plutôt qu’à une expérience linguistique visuelle, à une expérience linguistique malgré tout moins importante que celle des entendants, ou à une stratégie différente pour juger si deux mots riment ou non.

Dans une autre étude, D’Hondt (2001),a exploré la spécialisation hémisphérique pour le traitement de mots codés en LPC en ayant recours à nouveau au paradigme des hémichamps visuels. Ses prédictions étaient les suivantes : le traitement linguistique des stimuli LPC sera réussi lorsqu’ils seront présentés dans l’hémichamp visuel droit, alors que le traitement non linguistique des mêmes stimuli n’entraînera pas d’avantage hémisphérique. Cet avantage de l’hémisphère gauche pour le traitement linguistique sera modulé par l’âge auquel l’enfant sourd reçoit une entrée linguistique formelle. Deux conditions, linguistique et non linguistique, sont manipulées. Dans la condition linguistique, les participants doivent décider si les stimuli d’une paire, présentés sur deux vidéos digitales différentes (l’une en position centrale, l’autre en position latérale) correspondent au même mot (CV), indépendamment de la main qui produit le code alors que dans la condition non linguistique, ils doivent décider si le code est produit avec la même main ou non, indépendamment du mot produit. Un groupe d’entendants (âge moyen : 21 ans) ne connaissant pas le LPC et deux groupes de sourds profonds exposés au LPC précocement (« LPC-M », âge moyen : 15 ans) vs tardivement (« LPC-E », âge moyen : 18 ans) participent à cette expérience. Comme prédit, chez les participants sourds, le patron de résultats diffère selon la durée d’exposition au LPC. Dans la condition linguistique, les sourds LPC-M montrent un avantage pour les stimuli présentés dans l’hémichamp visuel droit (HG), alors que les sourds LPC-E ne montrent aucun avantage hémisphérique. Dans la condition non linguistique, aucun avantage hémisphérique n’est observé chez les deux groupes (LPC-M et LPC-E). Les résultats ne révèlent aucun effet de latéralité chez les entendants, quelle que soit la condition (linguistique vs non linguistique).

Dans l’ensemble, ces résultats confortent l’idée que l’hémisphère cérébral gauche est spécialisé pour le traitement du langage, quelle que soit la modalité du langage (Emmorey, 2002). La supériorité de l’hémisphère gauche pour le traitement du langage apparaît plus systématique chez les enfants exposés précocement à une entrée linguistique structurée que chez des enfants exposés tardivement à cette entrée.

Au terme de cette première partie consacrée à l’étude des différentes entrées phonologiques possibles dont peuvent bénéficier les enfants sourds, nous pouvons tirer comme conclusion que les sourds, en dépit de leur handicap sensoriel ne sont pas dénués de toutes connaissances de la langue orale. La langue des signes ne semble pas pouvoir fournir de telles informations compte tenu du fait que son vocabulaire n’a pas de lien direct avec les représentations phonologiques ni orthographiques correspondant aux langues orales. La question de l’apport éventuel de ces connaissances via les signes dactylologiques reste à discuter du fait qu’il soit pour le moment impossible de déterminer si ils sont liés à des représentations phonémiques par leur association à la lecture labiale ou par leur association avec les représentations orthographiques (Transler, 2001).

Dès que le diagnostic de la surdité a été prononcé, les enfants sourds sont très vite orientés vers le monde sonore grâce à leurs appareils auditifs (modalité auditive : gain prothétique variable selon les enfants) mais aussi via les exercices orthophoniques qui visent à rééduquer la parole (modalité, kinesthésique : articulatoire) et à entraîner la lecture labiale (modalité visuelle).

Cependant, bien qu’informatives, ces informations ne semblent pas suffisantes pour permettre une discrimination visuelle efficace des phonèmes et de là, pour l’élaboration d’un langage normal. L’apport du LPC (modalité visuelle) est bénéfique dans le sens où ce système permet de coder tous les mots de la langue orale. La forme phonologique, syntaxique et sémantique du langage oral étant complètement accessible via ce système.

Gombert (2001) et Transler (2001) ont récemment proposé un cadre général permettant de rendre compte de toutes ces différentes modalités sensorielles à l’origine des représentations phonologiques chez les enfants sourds, en y incluant le LPC. Pour cela, ils ont adapté le modèle de ‘« la machine à lire »’ (Gombert, 1995) dans lequel l’apprentissage de la lecture se réalise à partir de la connexion des informations traitées par trois processeurs, sémantique, orthographique et phonologique. Ce cadre général est intéressant dans le sens où il permet de visualiser les différents types de modalités que peut traiter le processeur phonologique (visuelle, auditive et kinesthésique) et qui est en accord avec le fait que ce processeur peut traiter différentes informations (modalités visuelle et auditive) dont disposent les sourds et qui constitueront des entrées possibles dans le processeur.

Figure 6 : Multimodalité des traitements ortho-phonologiques en reconnaissance de mots écrits chez les sourds : proposition d’un cadre général, adapté d’après Transler (2001) et Gombert (2001).
Figure 6 : Multimodalité des traitements ortho-phonologiques en reconnaissance de mots écrits chez les sourds : proposition d’un cadre général, adapté d’après Transler (2001) et Gombert (2001).

Nous montrerons dans le prochain chapitre de cet exposé, de quelle manière ces entrées phonologiques peuvent être exploitées chez les enfants sourds dans le traitement du code écrit.