1.4.2.2011Profondeur de traitement de l'information

Plus un item est traité en profondeur (caractéristiques sémantiques) plus il a de chances d’être récupéré dans le futur. Tel peut s'énoncer le principe de la profondeur de traitement de Craik et Lockhart (1972). Ces auteurs ont conduit une série d’expériences afin de préciser le concept de niveau de traitement. Ils ne considèrent plus la mémoire comme un système à composantes multiples, mais distinguent plutôt les traitements effectués durant la mise en mémoire de l’information. Cependant, ils conservent la notion de mémoire primaire ou mémoire à court terme pour signifier le maintien temporaire d’une quantité limitée d’informations et le traitement en temps réel de l’information. Au sein de la mémoire primaire, deux types de processus de répétition peuvent être adoptés : la répétition de maintenance et la répétition constructive (ou répétition élaborative). Seule cette dernière permet l'apprentissage à long terme car elle implique la mise en oeuvre de traitements élaborés de l'information. D'après Crowder (1982), la notion de profondeur de traitement est née de l'incapacité de la théorie des registres multiples à rendre compte des différences de codages en mémoire.

message URL FIGURE07.gif
Figure 1. 7 : Résultats adaptés de Craik et Tulving illustrant l'effet de profondeur de traitement (1975, expérience 1, p. 273).

Pour Craik et Tulving (1975), ce n’est pas le temps passé en mémoire à court terme ou le nombre de répétitions qui déterminent l’apprentissage mais la profondeur du traitement de cette information (Craik et Watkins, 1973). Ils utilisent un paradigme expérimental désormais célèbre où l’on demande au sujet de répondre à des questions posées préalablement à l’apparition de stimuli verbaux. Ces questions sont de différents types correspondant aux différents niveaux de traitement : par exemple, une question de niveau superficiel sera de demander au sujet de vérifier une caractéristique orthographique du mot ; un niveau un peu plus élaboré consiste à demander si le mot rime avec celui qui est présenté dans la question (traitement phonétique) ; enfin, le niveau le plus élaboré consiste par exemple à vérifier l’appartenance du mot à une catégorie pré-spécifiée dans la question (encodage sémantique). Les questions posées déterminent donc le niveau de traitement de l’information, d’où la notion généralement utilisée de tâche d’orientation. On teste ensuite la mémoire des sujets pour la liste de mots présentés (en reconnaissance ou en rappel, Craik, 1977). On trouvera une illustration des résultats classiquement obtenus dans la figure 1.7 (Craik et Tulving, 1975).

On observe une nette supériorité de rétention pour les mots traités de façon plus élaborée. De plus, les mots associés à des réponses positives lors de l’encodage sont mieux retenus que ceux associés à des réponses négatives. Ce résultat a reçu une explication en terme de congruence entre la paire question-stimulus (Craik et Tulving, 1975 ; Schulman, 1974). Ce principe de congruence énonce que, dans le cas d’une réponse positive, s'établit un lien entre la question et le mot-cible, qui peuvent ensuite être considérés comme une unité mnésique intégrée. Dans le cas d’une réponse négative, il n’y a pas formation d’une unité logique et la trace mnésique est moins solide. Le champ des réponses possibles se voit donc élargi au moment du rappel lorsqu'un élément de la question est retrouvé et utilisé comme indice. La différence de mémoire entre les mots associés à des réponses positives et négatives ne s’observe que pour les plus haut niveaux de traitement (phonétique et sémantique).

Les auteurs constatent que la profondeur de traitement est fortement corrélée avec le temps de réponse des sujets : il faut plus de temps pour une vérification catégorielle ou bien pour décider de la cohérence d’une phrase qu’il n’en faut pour détecter la présence d’une lettre particulière dans un mot. On pourrait conclure de cette observation que le temps d’encodage des stimuli détermine la mémorisation future. En définitive, cette explication n'est pas retenue pour deux raisons :

  1. Le fait que la latence des réponses positives et négatives soient identiques alors que le rappel des mots associés est différent permet de rejeter cette éventualité.

  2. Si l’on choisit des tâches d’orientation difficiles mais superficielles, comme par exemple demander au sujet de vérifier qu’un mot est de structure CVVCVV (C pour consonne et V pour voyelle ; expérience 5), le temps de décision est très rallongé par rapport à la simple détection d’une lettre, mais la proportion de rappel correct n’en bénéficie pas. Réciproquement, une décision rapide de nature sémantique, donc profonde, mène à de meilleures performances de mémoire. On en conclut que la nature du traitement est déterminante pour la mémorisation plus que le temps d’encodage.

Certains chercheurs ont voulu étendre le principe de Craik et Lockhart en ajoutant un niveau de profondeur qui reflèterait l'effet de la connaissance sur soi ou de la référence à soi (Self-knowledge). Nous avons vu en effet que le Soi est une entité qui bénéficie d'un statut particulier dans les représentations. On peut envisager que les informations relatives à soi seront traitées encore plus profondément que des informations sémantiques sur le monde ; elles auraient encore plus de sens pour l'individu par le biais d'une activation émotionnelle. L'induction de ce traitement s'obtient en demandant par exemple au sujet de dire si le matériel lui évoque quelque chose de plaisant ou déplaisant, d'émotionnellement chargé, ou de dire si le matériel présenté le décrit ou non, s'il a vécu un événement particulier en rapport avec le stimulus... On observe effectivement une supériorité de rappel pour les éléments jugés intimes ou proches de la personne (Klein et Kihlstrom, 1986 ; Rogers et al., 1977).

Il faut cependant mentionner que ces effets ont été en partie attribués à un biais méthodologique (Kihlstrom et al., 1988). En effet, chaque information sur soi doit être traitée selon une seule et même question d'orientation (e.g., « le mot vous décrit-il ?» ) alors que les autres information sont associées à des questions différentes d'un essai à l'autre (e.g., « catégorie des oiseaux» , « catégorie des vêtements» ou « possède la lettre a» , « possède la lettre r» ). Ainsi, l'ensemble des items traités selon le niveau « soi» peut être partitionné en deux catégories, ce qui n'est pas le cas pour l'ensemble des items traités selon la modalité sémantique ou orthographique. Les auteurs ont montré que, dans une situation où les items de chaque niveau de traitement peuvent être classés selon une même dimension (e.g., « possède la lettre p» pour tous les items du niveau orthographique, « appartient à la catégorie des animaux» pour tous les items du niveau sémantique), la supériorité du traitement de l'information sur soi disparaît alors que l'effet classique est maintenu (Klein et Kihlstrom, 1986). L'orientation du traitement sur soi se réduirait finalement à un traitement sémantique des données.

Bien que le principe de profondeur ou d'élaboration du matériel donne naissance à des résultats expérimentaux robustes et réplicables, il n'est pas exempt de toute critique. On lui a par exemple reproché l'imprécision de la notion de profondeur et la circularité de sa valeur explicative (Baddeley, 1993a) : une bonne performance est déterminée par la profondeur de traitement et la profondeur détermine le niveau de performance. En 1978, Baddeley critiquait les travaux de Craik et ses collègues en soulignant l'absence de mesure indépendante de la profondeur de traitement, l'échec à identifier des niveaux à l'intérieur des domaines plus larges du codage phonétique et sémantique, le besoin de se référer à d'autres principes comme la compatibilité et l'élaboration, qui ne peuvent non plus être mesurés indépendamment. De plus, dans la théorie de la profondeur, trois idées de base sont fausses :

Le remède proposé par Baddeley (1978) consiste à considérer la mémoire par une approche qui ne cherche pas des principes généraux mais qui explore des composantes du système mnésique, par exemple la boucle articulatoire de la mémoire de travail (§ 1.3.3).

Nous ajouterons que les procédures utilisées (tâches d'orientation) sont relativement lourdes et demandent beaucoup d'attention et de concentration de la part des sujets (variété des réponses, nombre d'informations non pertinentes présentées dans les questions, exigence dans les temps de réponse et dans leur exactitude). Cet aspect limite l'étude des effets de l'encodage intentionnel, comme nous le verrons, car le sujet n'a pas toute liberté de mettre en place ses propres stratégies. Inversement, cette procédure est d'une grande utilité quand on veut étudier la mémorisation incidente car il est irréaliste de présenter un matériel à des sujets sans leur fournir un minimum d'information sur les buts de l'expérience. La procédure des niveaux de traitement peut alors être présentée comme une tâche de décision. De plus, avec cette technique, on est sûr que les sujets prêtent attention au matériel puisqu'on leur demande de réaliser une opération sur le matériel.

Malgré ses effets robustes et établis, la notion de profondeur de traitement a été fortement critiquée. Il n'en reste pas moins qu'elle a amorcé une approche globale de la mémoire particulièrement pertinente en soulignant l'importance des opérations d'encodage sur la rétention future des données. Suite à la théorie de la profondeur de traitement, d'autres paradigmes ont été élaborés qui permettent d'obtenir un effet analogue des conditions d'encodage sur la performance. Par exemple, Jacoby (1983b) montre un effet de génération du matériel à apprendre sur la reconnaissance : lorsque les sujets sont invités, au cours de l'encodage, à produire eux-mêmes des associés face à un indice, leur performance se trouve améliorée par rapport à celles de sujets qui ont étudié des paires d'items fortement associés ; ces derniers réussissent toutefois mieux le test que des sujets qui apprennent des mots sans contexte. De même, Jacoby et Dallas (1981) demandent à des sujets, soit de lire une liste de mots, soit de les reconstruire à partir d'anagrammes. L'intervention active du sujet mène à une meilleure performance. Ces résultats font référence à la notion d'élaboration de l'encodage.