Les cycles de traitement

Comme nous l’avons déjà évoqué, Kintsch et van Dijk (1978) utilisent la cohérence référentielle, comme critère de base de la cohérence sémantique d’un texte. Ainsi, en terme de traitement, la première phase dans l’élaboration de la représentation cognitive du texte est constituée par l’examen de la cohérence référentielle entre propositions. S’il y a chevauchement d’argument(s) entre toutes les propositions, la base de texte est acceptée pour un traitement ultérieur ; si des ruptures de cohérence sont repérées, des processus inférentiels interviennent pour les combler, et une ou plusieurs propositions sont ajoutées à la base de texte pour la rendre plus cohérente.

En raison des limitations de la capacité de la mémoire de travail du lecteur, ces opérations ne peuvent se réaliser sur la base de texte considérée dans sa totalité. Le modèle suppose que le texte est traité séquentiellement, tronçon par tronçon, chaque tronçon comportant plusieurs propositions dont le nombre dépend à la fois des propriétés du texte et de celles du lecteur. Lorsque n propositions sont traitées au cours d’un cycle, un processus de sélection intervient : s propositions sont alors maintenues en mémoire de travail, et sont organisées en un réseau hiérarchisé avec une proposition topique servant de noeud superordonné. Toutes les propositions qui partagent un référent avec cette proposition superordonnée forment le niveau 2 de la hiérarchie. Les niveaux subordonnés de cette hiérarchie sont formés en reliant les propositions qui restent à la proposition la plus superordonnée avec laquelle elles partagent un référent. Kintsch et van Dijk (1978) ont proposé une stratégie dite du ’bord d’attaque’ pour prédire le contenu de la mémoire de travail à chaque cycle de traitement : les propositions sélectionnées sont la proposition superordonnée, la proposition la plus récente de chaque niveau subordonné, et s’il reste de la place en mémoire de travail, les propositions les plus récentes du niveau le plus superordonné. Les s propositions sont donc utilisées pour relier le nouveau tronçon à traiter au matériel déjà lu. Ainsi, s’il existe un chevauchement d’argument(s) entre l’ensemble d’entrée et le contenu en mémoire de travail, le matériel d’entrée est accepté comme étant cohérent avec le texte antérieur. Si ce n’est pas le cas, une recherche en mémoire à long-terme est engagée parmi toutes les propositions antérieurement traitées. Si le processus de recherche échoue également, des inférences sont alors produites pour ajouter à la base de texte une ou plusieurs propositions qui relient l’ensemble d’entrée aux propositions déjà traitées.

Il faut noter que les processus d’inférence ou de recherche sollicitent de façon importante les ressources cognitives du lecteur, et contribuent par là-même à accroître la difficulté de compréhension. On peut ajouter que la lisibilité du texte dépend du nombre d’inférences qui doivent être produites pour construire une base de texte cohérente, et du nombre de réintroductions dans la mémoire de travail, de propositions déjà traitées (Miller & Kintsch, 1980). Si un lecteur est capable de traiter des tronçons d’entrée importants (du fait de sa familiarité avec le thème traité, par exemple) et peut utiliser un tampon d’une capacité relativement importante, un nombre moindre de réintroductions et d’inférences sera nécessaire. En revanche, un lecteur avec une capacité réduite de traitement des tronçons d’entrée, et un ’buffer’ de taille limitée sera davantage gêné par des dépassements plus nombreux de la capacité de sa mémoire de travail, et par des réintroductions plus fréquentes de propositions stockées dans sa mémoire à long-terme. Dans la mesure où ces difficultés requièrent l’utilisation de ressources cognitives, la capacité du lecteur à produire des inférences qui relient entre elles des parties du texte, sera aussi diminuée. Le résultat final est une diminution de l’efficacité de la lecture.