2.3.1. Vers une conception fonctionnelle de la mémoire : Les performances issues de l’élaboration distinctive

Qu’est-ce qu’on entend par une conception fonctionnelle de la mémoire ? Selon Versace et al., (2002), le fonctionnalisme défend l’idée selon laquelle les diverses facultés mentales (perception, mémoire, raisonnement…) opèrent de façon intégrée pour produire des comportements adaptés, dirigés vers un but. Ainsi, plutôt que d’analyser la structure et le contenu des actes mentaux (ce qu’ils sont), le fonctionnalisme s’intéresse davantage au rôle de ces actes dans la réponse de l’organisme (ce qu’ils font).

Les travaux de Craik et Lockhart (1972) sont généralement considérés comme inaugurant l’approche fonctionnelle de la mémoire. Ces auteurs ont proposé la notion de « profondeur de traitement » dans un article intitulé « Levels of processing : a framework for memory research ». Ils suggèrent que les propriétés des connaissances en mémoire dépendent de la nature de l’activité réalisée au moment de l’encodage sur les informations traitées. Ils considèrent que la profondeur de traitement d’un stimulus varie sur un continuum d’opérations d’encodage, allant d’une simple analyse physique du stimulus à une analyse sémantique très complexe. Les traitements superficiels fourniraient des traces faiblement récupérables alors que des traitements plus profonds seraient à l’origine des traces plus élaborées et donc mieux mémorisées. Ils ont proposé l’idée selon laquelle plus l’analyse est profonde (sémantique), plus les performances mnésiques sont supérieures que les tâches non-semantiques en encodage. En 1975, Craik et Tulving ont utilisé des tâches dites d’orientation en variant les trois niveaux d’analyse : le niveau structural qui consiste à juger si le mot est écrit en majuscule ou pas; le niveau phonétique qui consiste à demander si un mot rime avec le mot cible ; et finalement le niveau sémantique qui consiste à compléter la phrase par un mot cohérant. Ils ont mis en évidence que les tâches sémantiques produisent une meilleure élaboration des traces mnésiques et que cela améliore les performances dans une tâche de reconnaissance, les performances étant intermédiaires pour le niveau phonétique. Dans une deuxième expérience, ils ont manipulé la complexité des phrases en trois niveaux (simple, moyen et complexe). Les résultats montrent que la complexité des phrases améliore la restitution des mots. Un an plus tard, en 1976, la publication d’un article (Lockhart, Craik & Jacoby, 1976) a suggéré que les effets bénéfiques du niveau d’encodage seraient dus au fait que l’encodage était plus profond, plus riche, plus distinctif et unique en cas de traitement sémantique. Ils proposent que « la notion de profondeur et de degré d’élaboration d’un stimulus permet la formation d’une trace plus distinctive, plus discriminable ».

Selon N’Kaoua (2003), la notion d’élaboration permet d’expliquer les manipulations telles que l’autoréférence (Rogers, Kuiper, & Kirker, 1977) et les effets de génération de la cible ou du contexte (Slamecka & Graf, 1978). L’autoréférence consiste à comparer les performances obtenues dans une condition de traitement sémantique avec celles obtenues dans une condition demandant au sujet de juger si l’item présenté le décrit. Les performances sont toujours supérieures dans cette condition par rapport aux conditions qui mettent en place un traitement sémantique plus conventionnel. Dans les paradigmes de génération de la cible ou du contexte, le sujet fournit lui-même la cible qui devra être restituée ou le mot contexte qui servira d’aide à la récupération. Dans ce cas précis, les performances sont meilleures comparées à la situation où les mêmes items sont imposés par l’expérimentateur. Dans tous les cas, il est clairement identifié que l’autoréférence ou l’autogénération favorise la mise en jeu des processus d’élaboration car il permet une meilleure élaboration de la trace mnésique.

Cette idée d’élaboration de la trace qui rend sa récupération plus efficace a trouvé ses partisans auprès de Hunt et Elliott, 1980; pour lesquelles la distinctivité permet aussi de décrire les caractéristiques de l’encodage qui fait émerger un processus discriminatif en récupération. Cependant, les auteurs soulignent aussi que l’efficacité de l’encodage est toujours fonction du test. Pour une tâche de reconnaissance, l’élaboration sémantique permet de ne pas confondre un item avec les autres, permettant un encodage distinctif, tandis que pour une tâche de rappel libre, les associations entre les items peuvent augmenter les chances de rappel, permettant ainsi un encodage organisationnel (ou relationnel).

On voit ici toute l’importance non seulement de la nature de l’encodage, mais aussi de la similarité entre les conditions d’encodage et les conditions de récupération. Ce sont surtout les travaux de Kolers (1975, 1976, 1985) qui sont à l’origine des conceptions fonctionnalistes de la mémoire. Dans ces expériences, Kolers a montré que le transfert d’une tâche à une autre bénéficie du degré avec lequel les procédures à la base des performances dans les deux tâches considérées sont similaires (pour une revue voir Kolers & Roediger, 1984). En accord avec ces observations, Morris, Bransford et Franks (1977) ont postulé pour la toute première fois que l’effet lié à la profondeur du traitement était en fait attribuable à la similitude des traitements mobilisés lors de la rencontre du stimulus avec ceux demandés par la tâche de récupération (appelé Transfer Appropriate Processing ou « identité des traitements » selon les termes utilisé dans Blanc & Brouillet, 2003). Dans l’expérience présentée par Morris et al., (1977), dans une première phase, les sujets devaient effectuer soit un traitement sémantique (élaboration profonde), soit un traitement phonétique (superficiel). Plus tard, les sujets étaient soumis à un test de reconnaissance qui portait soit sur les mots, soit sur les rimes. Les résultats ont clairement indiqué que lorsque le test de reconnaissance portait sur les mots, c’est la condition « traitement profond » qui permettait d’observer les meilleures performances. Quand la reconnaissance portait sur les rimes, c’est dans la condition « traitement superficiel » que les performances étaient supérieures. En accord parfait avec ces postulats, Eysenck (1979) souligne que les performances liées à la notion de distinctivité sont facilement observables dès lors qu’il y a une identité des traitements.

D’une manière un peu paradoxale, ces travaux sur la concordance des traitements ne sont pas sans présenter certaines similitudes avec le principe d’encodage spécifique postulé par Tulving et Thomson (même si ces derniers insistaient plus sur le contenu des représentations que sur les traitements). Tulving et Thomson, (1973) ont souligné l’importance du contexte d’apprentissage en soulignant que « les opérations d’encodage spécifique effectuées sur ce qui est perçu déterminent ce qui est stocké, et ce qui est stocké détermine quels indices de récupération sont efficaces pour accéder à ce qui est stocké ». Par exemple, selon Fisher et Craik (1977), un indice de récupération (un contexte) identique à celui présenté lors de l’encodage permet d’obtenir les meilleures performances de rappel lorsqu’un traitement profond a été réalisé  à l’encodage, alors qu’un indice différent ne le permet pas. Mäntyla et Nilsson (1983) et Mäntyla (1986) rejoignent Fisher et Craik en montrant une interaction entre l’élaboration et l’encodage spécifique. Par exemple, les performances de rappel sont supérieures quand il est demandé aux sujets de générer trois propriétés de chaque mot et que l’on utilise ces propriétés comme des indices dans des tests de rappel indicé. Les données ont été même testées par un matériel de 600 mots. Ces résultats montrent clairement que les propriétés générées par sujet empêchent la contamination relationnelle des mots entre eux et permet un traitement plus isolé des items. Un indice de récupération est beaucoup plus efficace s’il est identique à celui présenté lors de l’encodage et s’il a été élaboré par l’autoproduction. Bien entendu les travaux sur la spécificité de l’encodage étaient censés ne concerner que la mémoire épisodique.

On retrouve des idées similaires à celle de la théorie de la concordance des traitements chez Roediger et collaborateurs (Roediger, 1990 ; Roediger & McDermott, 1993 ; Roediger, Srinivas, & Weldon, 1989). Ces auteurs s’intéressent surtout à la nature perceptive ou conceptuelle des traitements. Les performances dans les tests implicites et explicites dépendraient des processus conceptuels et perceptuels présents lors de l’encodage. Ainsi, une phase d’apprentissage qui implique un traitement sémantique améliorerait les performances des tâches explicites puisque ces tâches sont de nature conceptuelle. Au contraire, la mise en place de traitements perceptifs à l’encodage serait susceptible d’augmenter les effets implicites de type amorçage. Les travaux de Blaxton (1989) valident parfaitement cette idée. Nous reviendrons sur ces travaux ultérieurement à propos d’une expérience conduite par Geraci et Rajaram (2004) pour étudier l’effet de distinctivité dans une tâche implicite.

En conclusion, l’efficacité de l’encodage dépend de trois dimensions : le niveau de traitement, l’élaboration (distinctive ou relationnelle) et les conditions de tests (lesquelles nécessitent l’utilisation d’indices ou de traitements plus ou moins similaires à ceux d’encodage). Ces trois processus concourent individuellement à l’amélioration des performances mais entretiennent également des relations complexes (N’Kaoua, 2003). Les expériences qui utilisent le paradigme d’isolation avec n’importe quelle tâche doivent prendre en considération ces trois dimensions sous peine de voir disparaître l’effet recherché.