4. Natures des traitements de l’écrit

Il est maintenant clairement établi qu’en lecture silencieuse, tous les modèles doivent intégrer en plus d’un codage orthographique, un codage phonologique. C’est ce que nous avons pu observer lors de la présentation des différents modèles connexionnistes de la lecture. Comme l’annonce sans ambiguïté Ludovic Ferrand « tout modèle actuel de la lecture silencieuse n’incorporant pas un codage phonologique automatique dans son architecture est de facto un modèle dépassé et non viable » (Ferrand, 2004, p. 217). De nombreux arguments expérimentaux ont enrichi l’idée d’une intervention précoce, automatique et quasi obligatoire d’un code phonologique (e.g., Drieghe & Brysbaert, 2002 ; Frost, 1995 ; 1998 ; Lukatela, Frost, & Turvey, 1998 ; Lukatela & Turvey, 1994). Les premiers arguments qui ont validé l’hypothèse d’une intervention automatique et rapide d’un code phonologique ont été obtenus à partir des travaux sur l’effet de pseudohomophonie (e.g., Coltheart, Davelaar, Jonasson & Davelaar, 1977) dans une tâche de décision lexicale. Il s’agit-là d’une difficulté pour rejeter des pseudomots qui se prononcent comme de vrais mots (e.g., frain) et initialement dérivés de vrais mots (e.g., frein), comparativement à des pseudomots proches orthographiquement (e.g., drein)11. Alors que le pseudohomophone frain activerait l’entrée phonologique du mot frein, l’entrée orthographique catégoriserait le pseudohomophone comme un intrus. Le ralentissement des temps de réponse surviendrait suite à l’intervention d’un mécanisme de vérification orthographique qui induit un délai lors de la résolution du conflit entre l’entrée phonologique et l’entrée orthographique (Rubenstein, Lewis & Rubenstein, 1971). Ce désavantage pour traiter les pseudohomophones en décision lexicale serait une preuve d’activation prélexicale automatique de la phonologie en anglais (voir aussi Perfetti, Bell & Delaney, 1988), mais aussi en néerlandais (e.g., Brysbaert, 2001). Pour Ziegler, Jacobs et Klüppel (2001), l’activation automatique de la phonologie et l’intervention d’un mécanisme de vérification orthographique ne doivent pas être considérées comme deux processus séparés et stratégiques, mais plutôt comme des mécanismes feedback et feedforward.

Selon Ram Frost (1998), qui soutient une théorie phonologique forte (i.e., strong phonological theory), le lecteur expert utilise obligatoirement un codage phonologique. Par opposition, une théorie phonologique faible (i.e., weak phonological theory) défend que le codage phonologique ne soit pas exclusif, mais soit partagé avec un codage orthographique. Ainsi, un modèle comme le DRC (Coltheart et al., 2001) est sans conteste classé dans le courant d’une théorie phonologique faible. D’autre part, pour l’auteur, le codage phonologique sollicité par le lecteur repose sur un code prélexical automatique, sous-spécifié, partiel et parallèle, suffisant dans un premier temps pour accéder au lexique. Ce n’est que le code lexical qui contiendrait l’ensemble des caractéristiques maximalement informatives (e.g., sémantiques, orthographiques…) du mot écrit. Ce point de vue est largement étayé par les travaux de Berent et Perfetti (1995). En s’intéressant à la nature des codes phonologiques, les auteurs ont proposé un modèle à deux cycles. Selon leur modèle, le codage phonologique serait structuré via deux opérations successives et distinctes au cours desquelles seraient d’abord activées les consonnes selon un processus automatique, puis les voyelles selon un autre processus lent et contrôlé. Ce modèle s’appuierait largement sur la régularité de l’anglais : les consonnes, régulières, seraient plus facilement activées que les voyelles, beaucoup plus irrégulières au niveau des CGP. En résumé, les représentations lexicales seraient activées par le biais d’une activation phonologique prélexicale partielle, rapide et automatique, issue du traitement des consonnes puis suivie du traitement des voyelles.

Comme le rappelle Grainger (2008), la reconnaissance de mots écrits respecte une hiérarchie d’activations, à savoir d’abord orthographique qui coderait l’identité et la position des lettres et ensuite seulement phonologique. Comme l’ont montré les expériences menées avec des paradigmes d’amorçage masqué ou incrémental (e.g., Ziegler, Ferrand, Jacobs, Rey & Grainger, 2000), il existe un décours temporel différent entre les codes orthographiques qui sont activés prioritairement et les codes phonologiques qui n’émergent que plus tardivement.

Dans tous modèles de reconnaissance de mots écrits, les lettres constituent le niveau de base à l’origine de traitements ultérieurs complexes. Ainsi, les traitements orthographiques ne sont possibles que grâce à un codage positionnel des lettres au sein d’un mot. Cela permet notamment de distinguer deux mots proches orthographiquement (e.g., patrie et partie). Cette notion de codage positionnel des lettres est à la base des architectures des modèles connexionnistes (e.g., Coltheart et al., 2001 ; Harm & Seidenberg, 2001; Plaut et al., 1996 ; Seidenberg & McClelland, 1989). Cependant, les chercheurs ne s’accordent pas quant à la nature des traitements : parallèle ou séquentielle. Par exemple, un modèle comme le DRC (Coltheart et al., 2001) suggère qu’un traitement parallèle de toutes les lettres n’est possible qu’avec les mots fréquents alors qu’avec les mots peu fréquents et les pseudomots, le traitement est sériel, de gauche à droite. En revanche, un modèle tel que celui élaboré par Plaut et al. (1996) applique un traitement parallèle quelle que soit la catégorie des items en s’appuyant sur des slots définis selon le découpage syllabique (i.e., attaque, pic vocalique et coda). Pour leur part, Seidenberg et McClelland (1989), dans leur modèle, favorisent un codage qui dépend de trigrammes sensés codés un mot (e.g., le mot porte dispose des trigrammes #or, por, ort, rte et te#), ce qui a été repris et étendu par Grainger et Van Heuven (2003) qui ont proposé un codage positionnel relatif de bigrammes avec des lettres adjacentes correctement ordonnées (e.g., le mot talc est représenté par les bigrammes ta, tl, tc, al, ac et lc) (pour une revue critique, voir Dehaene, 2007). Actuellement, la nature des traitements orthographiques précoces en reconnaissance visuelle de mots tend à converger vers l’existence d’un codage positionnel des lettres dans l’espace (Grainger, 2008 ; voir les travaux de Lupker, Perea & Carreiras, 2008 ; Perea & Carreiras, 2008, sur l’Effet de Transposition de Lettres, i.e., Transposed-Letter Effect, TLE).

Un indice consiste en la mesure de l’effet de longueur des mots. Il s’agit d’un effet inhibiteur qui survient à mesure que le nombre de lettres d’un mot augmente et censé refléter la mise en œuvre d’un traitement sériel. L’absence d’un effet de longueur de mots est l’effet le plus représentatif d’un traitement parallèle (e.g., Weekes, 1997). Toutefois, l’effet de longueur conduit à des données variables (pour une synthèse, voir New, Ferrand, Pallier & Brysbaert, 2006). Par exemple, Weekes (1997), en anglais, a démontré qu’en lecture à voix haute de mots et de pseudomots de trois à six lettres, l’effet de longueur était inhibiteur pour les mots peu fréquents et les pseudomots, mais pas pour les mots fréquents. De manière semblable, Balota, Cortese, Sergent-Marshall, Spieler et Yap (2004) ou Ziegler, Perry, Jacobs et Braun (2001) ont également apporté des arguments en faveur d’un effet inhibiteur de la longueur des mots. Un autre argument en faveur d’un traitement sériel des mots repose sur la position de l’irrégularité (i.e., la lettre qui ne suit pas les règles habituelles de CGP) dans un mot irrégulier (Rastle & Coltheart, 1999). Selon ces auteurs, plus le point d’irrégularité intervenait tôt dans le mot, plus rapide était la prononciation de ce mot.

Les arguments défendant l’hypothèse d’un traitement séquentiel de gauche à droite ont été tout aussi nombreux que ceux arguant pour un traitement parallèle de toutes les lettres. Les travaux de Kwantes et Mewhort (1999), Lindell, Nicholls et Castles (2003) ou Lindell, Nicholls, Kwantes et Castles (2005) ont également suggéré l’utilisation du traitement séquentiel avec les mots en se basant sur la manipulation de la position du Point d’Unicité Orthographique (i.e., PUO, Orthographic Uniqueness Point, OUP ; la position de la lettre qui distingue un mot de tous les autres mots; Kwantes & Mewhort, 1999, p. 377, notre traduction). Les résultats ont montré que les mots ayant un PUO précoce étaient plus rapidement reconnus que les mots ayant un PUO tardif. Ces données ont abouti à défendre l’hypothèse d’un traitement séquentiel dans la mesure où l’hypothèse d’un traitement parallèle énonce que quelle que soit la position du PUO, les temps de traitements seront identiques (pour une critique nuancée, voir Lamberts, 2005).

Ces résultats sont pourtant critiquables sur le fait que l’utilisation de pseudomots entraîne systématiquement plus d’effets de sérialité que le recours à des mots (Ziegler et al., 2001). Enfin, les tâches de lecture à voix haute nécessitent un mécanisme d’articulation beaucoup plus sériel et linéaire (Balota et al., 2004) qu’une tâche de décision lexicale.

Notes
11.

Pour des résultats en lecture à voix haute en français, voir Grainger, Spinelli et Ferrand (2000). Les auteurs ont mis en évidence un effet de pseudohomophonie modulé par la fréquence de base des mots à partir desquels les pseudohomophones avaient été dérivés.