6. Synthèse du Chapitre 3

Dans ce chapitre, nous avons présenté de manière non exhaustive les modèles connexionnistes de la lecture experte les plus influents. Nous avons ainsi pu distinguer deux grandes catégories de modèles : les modèles dits de la Double Voie (e.g., Coltheart et al., 2001) et les modèles dits Triangulaires (e.g., Plaut et al., 1996). Pour chacune de ces catégories, nous avons présenté les principaux mécanismes de fonctionnement des modèles les plus représentatifs, parfois même à la base de certains modèles cognitivistes d’apprentissage de la lecture (e.g., MROMp, Jacobs et al., 1998). Nous avons insisté, pour chaque modèle, sur la manière dont les codages orthographiques et/ou phonologiques étaient effectués en précisant à chaque fois le type d’unités privilégié (e.g., graphème, phonème…). Nous avons observé que peu – trop peu – de modèles incorporaient un niveau de représentations syllabiques dans leurs architectures, exception faite du modèle MTM d’Ans et al. (1998).

Par ailleurs, bien que réalistes dans leurs capacités à simuler des comportements humains et à reproduire certains des effets les plus étudiés en psycholinguistique (i.e., effets de fréquence lexicale, effets de régularité…), tous les modèles ne parviennent pas au même niveau de réussite. Comme nous l’avons vu, cela semblerait être dépendant en partie des codages implémentés et en partie de la nature des unités contactées. Comme l’ont maintes fois suggérées les données comportementales (voir Frost, 1998), la phonologie est indispensable en lecture experte, ce qui de facto rend l’implémentation d’un niveau de codage phonologique nécessaire. Toutefois, la nature des traitements demeure un point de controverse entre les partisans d’un traitement séquentiel (e.g., Rastle & Coltheart, 1999) opposé à ceux défendant l’hypothèse d’un traitement parallèle.

L’une des critiques adressées à ces modèles dans ce chapitre pourrait se résumer ainsi : il y a trop de restrictions linguistiques. En d’autres termes, ces modèles, en règle générale, ne sont construits et confrontés qu’avec l’anglais. Cela signifie que ces modèles sont adaptés pour prendre en compte préférentiellement les unités de lecture propres à l’anglais et les données expérimentales obtenues sont majoritairement explicatives des mécanismes potentiellement restreints à la langue anglaise. Heureusement, certains modèles (e.g., DRC, Coltheart et al., 2001 ; CDP+, Perry et al., 2007) se sont proposé de tester leur architecture dans d’autres langues, mais le cas du français reste actuellement minoritaire. Cela peut s’expliquer par le fait que ces modèles n’intègrent pas de niveau syllabique dans leurs architectures alors que des langues telles que le français ou l’espagnol sont connues pour avoir un système linguistique favorisant les syllabes.

L’intérêt indéniable de ces modèles est de pouvoir rendre compte de plus en plus précisément des mécanismes de lecture experte. Cependant, la nature même des unités de codage demeure encore un point de débat. Face à tous ces modèles inspirés de l’anglais, peu de modèles se sont véritablement imposés en proposant un niveau de codage basé sur la syllabe. Actuellement, les graphèmes voire les bigrammes semblent être de bien meilleurs concurrents pour simuler les processus de lecture. En revanche, l’une des forces de modèles proposant un niveau syllabique est peut-être de pouvoir mieux simuler les comportements dans des langues dont le système linguistique favorise une segmentation syllabique (e.g., en français).