Chapitre 3 : De la modularité de l'esprit... et des visages

Dans les années 70, l'intérêt pour le visage a donné lieu à de très nombreuses recherches empiriques (pour une revue : Tiberghien, 1983, 1988). Il est alors apparu nécessaire de fournir un cadre théorique commun à l'ensemble des données observées. Dès le début des années 80, plusieurs auteurs ont proposé des modèles de la reconnaissance des visages (parmi les premières propositions, voir Bruce, 1979 ; H. Ellis, 1981 ; Hay & Young, 1982 ; pour une revue des modèles, voir Bruyer, 1987a). Depuis, de nombreuses modélisations ont été développées dans des domaines divers, allant de la psychologie expérimentale aux neurosciences en passant par l'intelligence artificielle (e. g., Bruyer, 1990 ; Burton et al., 1990 ; A. Damasio et al., 1982 ; H. Ellis, 1986 ; Farah, 1994 ; Haxby et al., 2000 ; Perrett, Mistlin, Potter, Smith, Head, Chitty, Broenniman, Milner, & Jeeves, 1986 ; Rhodes, 1985 ; Valentin, Abdi, & Edelman, 1997, 1999 ; Yamada, Chiba, Tsuda, Maiya, & Harashima, 1992). De plus, pratiquement tous ces modèles prennent en compte des données ou des méthodes développées dans des champs disciplinaires variés : analyse chronométrique des comportements de participants sains ; étude des performances de patients souffrant d'atteintes neurologiques ou psychiatriques ; exploration des différences inter-hémisphériques par présentation en hémi-champs visuels ; enregistrement d'indicateurs physiologiques périphériques (e. g., réponses électrodermales) ou centraux (e. g., variation du flux sanguin cérébral, électroencéphalographie) ou, encore, simulation connexionniste.

La plupart de ces modèles sont fortement influencés par la théorie de la modularité de l'esprit (Fodor , 1983). Selon Fodor, une partie du cerveau – celle chargée de la collecte des informations de l'environnement - serait organisée en modules fonctionnels localisés dans des régions cérébrales distinctes. Chaque module effectuerait des opérations spécifiques. Leur mise en oeuvre serait automatique et encapsulée, c'est à dire indépendante des autres modules. Elles seraient inconscientes et "non-pénétrables", i.e. elles ne pourraient être contrôlées par des processus de haut niveau. Une telle organisation concernerait des systèmes périphériques comme la vision, par exemple. Fodor postule même qu'il existerait un module spécifiquement chargé du traitement du visage. Cette théorie est adoptée par la plupart des chercheurs qui s'intéressent aux visages. Elle a même été étendue au traitement des différentes informations faciales, la tendance actuelle étant de considérer qu'il existe un module pour chacune d'elles.

Certains modèles - les plus récents notamment - n'étudient qu'un processus de traitement d'une information faciale, généralement la reconnaissance du visage (e. g., Burton et al., 1990 ; Valentine, 1991). D'autres étudient de façon intégrative les processus chargés du traitement des différents aspects du visage (e. g., Bruce & Young, 1986 ; Bruyer, 1990 ; H. Ellis, 1986 ; Haxby et al., 2000 ; Hay & Young, 1982). Une tendance générale est de considérer que les différents types d'informations faciales sont extraits par des processus distincts et indépendants. Les relations entre ces processus varient néanmoins selon les modèles et dépendent des informations en question. Nous nous intéresserons principalement à deux types de relations : 1) La relation entre la reconnaissance du visage et le traitement de l'expression faciale émotionnelle ; 2) La relation entre la reconnaissance du visage et le traitement des informations sémantiques dérivées de l'analyse visuelle, en particulier, le genre.

Pour ce qui est de la reconnaissance du visage et du traitement de l'expression faciale émotionnelle, la question de leurs relations se pose dès la fin des années 70. A cette époque, comme nous l'avons déjà souligné, des données abondantes indiquent une supériorité de l'hémisphère droit dans le traitement à la fois de l'identité et de l'expression faciale émotionnelle. La question est alors de savoir si identité et expression impliquent un seul et même processus ou, au contraire, deux processus distincts et indépendants. Pour certains, les deux types d'information renvoient à des processus indépendants (e. g., Cicone, Wapner, & Gardner, 1980 ; Fried, Mateer, Ojemann, Wohns, & Fedio, 1982 ; Strauss & Moscovitch, 1981). Pour d'autres, ils sont indissociables (Hansch & Pirozzolo, 1980 ; Yin, 1970). D'autres encore suggèrent qu'ils sont partiellement dissociables et qu'ils impliquent des processus interdépendants (Dekosky, Heilman, Bowers, & Valenstein, 1980 ; Ley & Bryden, 1979). L'hypothèse qui l'emporte dans les années 80, et qui domine encore de nos jours, est celle d'une indépendance complète. Elle fait l'unanimité dans la quasi-totalité des modèles (e. g., Bruce & Young, 1986 ; Bruyer, 1990 ; H. Ellis, 1986 ; Hay & Young, 1982).

Pour ce qui est de la reconnaissance du visage et de l'extraction des informations sémantiques inférées à partir de l'analyse visuelle du visage (e. g., genre, âge, origine ethnique), le consensus est moins marqué. La plupart des modèles considèrent que des processus distincts sont à l'oeuvre, mais la nature de leurs relations varie selon les auteurs. Certains considèrent que les deux processus sont parallèles et indépendants (e. g., Bruce & Young, 1986). D'autres les considèrent parallèles, mais admettent que les informations sémantiques visuelles puissent influencer les processus de reconnaissance (e. g., Hay & Young, 1982). H. Ellis (1986) propose même que les deux processus sont sériels, la reconnaissance impliquant une suite de processus de classification de plus en plus fins, incluant, notamment, la catégorisation du genre.

Considérons individuellement certains de ces modèles. Le plus ancien, celui de Hay et Young (1982) postule que la reconnaissance s'opère par l'activation d'une unité qui permet l'accès aux informations sémantiques, puis au nom (Figure 7a). Les autres informations, dont le genre, sont extraites par les processus visuels qui vont permettre la mise en oeuvre d'autres processus cognitifs, dont l'analyse de l'expression faciale émotionnelle. Les auteurs proposent une connexion entre ces processus visuels et les unités de reconnaissance, suggérant ainsi que les premiers peuvent modifier les secondes. Dans ce modèle, le genre peut donc, en principe, influencer la reconnaissance du visage16.

Figure 7a-c : Quelques modèles du traitement de l'information faciale.
Figure 7a : Hay et Young (1982).
Figure 7b : H. Ellis (1986).
Figure 7c : Haxby, Hoffman et Gobbini (2000).

Le modèle de Bruce et Young (1986) développe celui de Hay et Young (1982) avec quelques variantes (voir l'introduction, Figure 1). Tout d'abord, les processus visuels sont décomposés en différents sous-processus indépendants : d'une part, l'analyse de l'expression faciale émotionnelle et, d'autre part, les "processus visuels dirigés" assurant l'extraction des informations sémantiques dérivables de l'analyse visuelle du visage, comme le genre. Ils sont indépendants de la reconnaissance du visage proprement dite. Cette dernière est décrite par une série de sous-processus identique à celle proposée par Hay et Young (1982). La connexion entre les processus visuels dirigés et les unités de reconnaissance disparaît ainsi dans le modèle de Bruce et Young.

H. Ellis (1986) a adopté une position théorique radicalement différente (Figure 7b). Selon lui, la reconnaissance d'un visage résulte d'un ensemble sériel de processus de classification de plus en plus précis. Il commence par la classification du stimulus visuel en visage ou non-visage et s'achève par la discrimination d'un visage spécifique différent de tous les autres visages en mémoire. Cette dernière étape n'est atteinte qu'après des étapes de classification intermédiaire (classification du genre, de l'âge, de l'origine ethnique, etc). La reconnaissance nécessite donc ici la catégorisation préalable du genre. Par contre, l'expression est extraite par un processus indépendant. Le schéma de H. Ellis (1986) permet cependant de supposer que l'expression peut exercer une influence contextuelle sur la reconnaissance.

Tout récemment, Haxby et al. (2000) ont proposé un nouveau modèle qui prend en compte les données d'imagerie cérébrale (Figure 7c) et qui, selon eux, est fortement inspiré du modèle de Bruce et Young (1986). Pourtant, ce modèle présente une particularité qui correspond à une conception nouvelle dans le domaine de la reconnaissance du visage : les processus de haut niveau ont des projections descendantes jusqu'aux niveaux les plus précoces. De plus, ces derniers ont des connexions réciproques : ils peuvent donc s'influencer mutuellement. Aucun des autres modèles que nous avons présentés ne permet de telles projections. Ces connexions descendantes permettent des interactions dans le traitement des différentes informations faciales. Ainsi, par exemple, la familiarité peut rétroagir sur le traitement précoce de la structure du visage ce qui peut alors se répercuter sur tous les autres processus qui en utilisent le produit.

Ainsi les différences entre ces modèles sont importantes et la question de l'indépendance ou de l'interaction entre processus est évidemment critique. Quelles sont donc les données empiriques qui permettent d'accepter l'hypothèse d'indépendance entre le processus de reconnaissance du visage et le traitement des expressions émotionnelles, d'une part, et, d'autre part, la catégorisation du genre ?

Notes
16.

On peut d'ailleurs aussi supposer qu'il en est de même pour l'expression faciale émotionnelle, en raison de ses connexions descendantes sur les processus visuels. Ce n'est cependant pas la position de Hay et Young.