Conclusion générale

L'ensemble des arguments et des résultats que nous venons de présenter nous amène à rejeter l'hypothèse d'indépendance des différents processus de traitement de l'information faciale. Lorsqu'il est perçu, le visage est une structure fortement intégrée. De plus, les caractéristiques du visage qui permettent la reconnaissance des différentes informations faciales sont essentiellement communes (i.e., configuration, information de surface) et ces informations sont aussi extraites par des voies visuelles essentiellement communes (Expériences 1 et 2). Nous sommes néanmoins capables de dissocier plusieurs types d'informations faciales (l'identité, l'état émotionnel, le genre, etc.) et de porter "sélectivement" notre attention sur chacune d'elle. Cela signifie, plus précisément, que nous pouvons répondre à chaque information sans tenir compte des variations des autres (par exemple, reconnaître une personne quelle que soit son expression faciale). Le terme sélectif est pourtant à mettre entre guillemets car nous avons vu que cette capacité d'attention "sélective" est sensible à l'interférence. Autrement dit, l'extraction d'une information faciale donnée n'est pas réalisée par un processus modulaire au sens fodorien du terme, i.e. de manière automatique et encapsulée. Il apparaît, au contraire, que les différents processus interagissent et que la discrimination des différentes informations a un coût attentionnel.

Nous avons vu que la nature de cette interférence est variable et qu'elle dépend (1) des processus que l'on considère et (2) de la relation causale considérée (e. g., influence de l'expression sur la reconnaissance ou inversement). Les interactions entre la reconnaissance des visages et la reconnaissance de l'expression faciale émotionnelle, d'une part (Expériences 3 et 4) et la catégorisation du genre, d'autre part (Expériences 5 et 6), présentent à la fois des similitudes et des différences. Le sourire biaise la décision de familiarité, alors que le genre accélère la décision de non-familiarité. Les deux effets peuvent s'expliquer en invoquant un mécanisme d'interférence au niveau du système de décision. Cependant, la nature de cette interférence varie. Ainsi, le sourire n'est pas un indice permettant d'améliorer la précision de la réponse. Il ne peut donc engendrer qu'un biais vers une décision de familiarité, et ceci quelle que soit la familiarité réelle du visage. Donc, lorsque le visage est inconnu, ceci se traduit par une augmentation des fausses alarmes. Cette observation est à rapprocher de l'étude de Dolan et al. (1996) où l'activité du gyrus fusiforme, impliqué dans la reconnaissance du visage, est plus importante lorsque le visage est souriant. En revanche, le genre peut, à lui seul, déterminer la réponse dans plusieurs situations. Par exemple, déterminer qu'un visage est celui d'une femme permet de décider à coup sûr qu'il ne s'agit pas de celui de Jacques Chirac, et ceci sans procéder à une identification complète. On peut donc distinguer les deux informations selon qu'elles constituent un biais (le sourire) ou un indice (le genre) pour la décision de familiarité et l'identification.

Nous avons vu aussi que l'accès à la familiarité d'un visage exerce une influence sur l'extraction d'une information relevant d'un autre processus, l'expression faciale émotionnelle (Expériences 7 à 10). Cette observation est en accord avec celle faite par Dubois et al. (1999) lors d'une tâche de catégorisation du genre. Dans ces deux études, la familiarité n'exerce pas une influence directe sur chacun de ces processus - reconnaissance de l'expression faciale émotionnelle et catégorisation du genre - mais elle provoque une facilitation du traitement précoce de l'information du visage. Ce niveau précoce est, au minimul, celui de l’encodage structural. On peut même supposer qu’il s étend au cortex visuel primaire, puisque c’est dans cette région que Dubois et al. (1999) ont observé une diminution de l’activité cérébrale pour des visages familiers. Nous avons d’ailleurs aussi observé une augmentation de la discriminabilité de l’information faciale dans certaines bandes de fréquence spatiale lorsque les visages sont familiers (chapitre 2).

Il apparaît, par ailleurs, que la capacité d'attention "sélective" ou, en d'autres termes, la capacité à traiter l'expression faciale ou l'identité sans prendre en compte les variations de la seconde information, peut être atteinte suite à des troubles psychiatriques. Notamment, des patients schizophrènes éprouvent des difficultés pour apparier deux expressions faciales émotionnelles lorsque l'identité change (Expérience 11). De plus, certains d'entre eux confondent un changement d'expression avec un changement d'identité, observation similaire à celle rapporté par Young et al. (1996) avec une patiente ayant subi une amygdalectomie. Cinq des patients que nous avons étudiés présentent même le problème inverse ils confondent un changement d'identité avec un changement d'expression faciale émotionnelle. Le fait que la capacité d'attention sélective soit atteinte suite à des désordres psychiatriques ou neurologiques indique que la possibilité de répondre sélectivement à l'une ou l'autre des différentes informations faciales ne résulte pas de l'extraction parallèle et modulaire de ces informations ; indication renforcée par kles observations d’interférence en l’absence même d’atteinte cérébrale. Il apparaît, au contraire, que des processus cérébraux particuliers doivent être mis an oeuvre, et doivent être préservés, pour qu’une décision soit rendue sur un type d’information sans que les autres types ne soient pris en compte. Ces processus sont probablement d'ordre attentionnel comme le suggère l'étude de patients schizophrènes et de participants contrôles sains avec un paradigme d'attention sélective (Expérience 12). Cette étude confirme d’ailleurs des observations antérieures, faites avec le même paradigme sur des patients lésés à l'hémisphère droit (Etcoff, 1984) et des participants sains (Schweinberger et al., 1999 ; Schweinberger & Soukup, 1998).

Les observations que nous avons faites, associées avec les données de la littérature, nous amènent à suggérer une nouvelle architecture des processus de traitement de l'information faciale (Figure 28). Cette architecture est essentiellement inspirée de deux modèles, celui de Bruce et Young (1986) et celui de Haxby et al. (2000). Par "inspiration", nous ne voulons pas dire que l'ensemble des postulats de ces modèles est repris. Au contraire, même, certains postulats princeps sont reconsidérés. Par contre, nous reprenons à notre compte certains points, notamment sur les différents processus ou "codes" distingués par Bruce et Young ainsi que sur les interactions et les localisations proposées par Haxby et al.. Nous avons adopté une représentation en boîtes car c'est le mode de présentation choisit par les auteurs de ces modèles. Chaque "boîte" correspond à un type de traitement et sa dénomination indique le type d'information qui est extraite. Le modèle comprend 4 niveaux : (1) Traitement perceptif précoce du stimulus facial où la stimulation visuelle est décomposée ; (2) Encodage structural où sont traités les aspects changeants et invariants du visage ; (3) Récupération de l'information faciale en mémoire (expression faciale émotionnelle, genre, identité et informations sémantiques) et ; (4) Décision, où les résultats des processus antérieurs sont considérés pour rendre une réponse.

Le traitement perceptif précoce correspond à ce que Haxby et al. (2000) appellent "perception précoce des traits faciaux", pris en charge par les gyri occipitaux inférieurs. Nous l'étendons au cortex visuel primaire en considérant la décomposition de l'information représentée alors dans différents canaux de fréquence spatiale. Les différentes caractéristiques du visage (e. g., configuration, surface, traits, texture) sont traités dans différents canaux qui peuvent se recouvrir . On peut aussi inclure ici les régions visuelles qui traitent la couleur et la texture.

L'encodage structural comprend une description dépendante du point de vue et une autre indépendante du point de vue, ce qui correspond au module du même nom décrit par Bruce et Young en 1986 et - très partiellement - repris par Haxby et al. en 2000. Ces deux modèles présentent cependant une conception différente de l'architecture de ces deux descriptions. Bruce et Young les considèrent sérielles alors que Haxby et al. les présentent parallèles et en interaction. La différence tient principalement au fait que, alors qu'ils s'accordent pour admettre un processus chargé du traitement des aspects invariants du visage, Bruce et Young distinguent ce dernier "module" d'un autre où sont traités les informations

message URL FIG28.gif
Figure 28 : Une nouvelle architecture des processus de traitement de l'information faciale.

picturales uniquement. Haxby et al. considèrent plutôt un processus qui traite des aspects changeants tels que la direction du regard, l'expression et le mouvement. Les informations picturales n'apparaissent donc pas explicitement dans le modèle de Haxby et al.. Nous adoptons la position de Haxby et al. en considérant un processus chargé du traitement d'informations changeantes. Mais, nous pensons qu'il traite aussi quelques aspects picturaux dans le sens où il permet une capture, par exemple, de l'expression faciale émotionnelle et la direction du regard ou de la tête. Les données actuelles nous permettent de localiser ce processus dans la région latérale du cortex temporal, plus précisément dans le sulcus temporal supérieur. Cette région est activée lors du traitement de mouvements biologiques (e. g., Grossman, Donnelly, Price, Pickens, Morgan, Neighbor, & Blake, 2000) mais répond aussi à des stimuli statiques, notamment lorsqu'il s'agit de visages (voir Allison, Puce, & McCarthy, 2000). Dans cette région ont aussi été observées, chez le singe, des cellules qui répondent à l'expression faciale émotionnelle (e. g., Hasselmo et al., 1989) et à l'orientation de l'attention, i.e. direction de la tête et des yeux (e. g., Perrett et al., 1992). Certaines cellules sont aussi sensibles au mouvement, notamment des traits faciaux (e. g., Perrett et al., 1984a, 1984b). Chez l'homme, cette région est active lors de tâches demandant le traitement d'un aspect changeant du visage comme l'expression faciale émotionnelle (R. C. Gur et al., 1994 ; Puce, Allison, Bentin, Gore, & McCarthy, 1998 ; Sergent et al., 1994 ; Streit et al., 1999) et sa lésion provoque des perturbations pour traiter des informations telles que l'expression, la direction du regard ou la prononciation labiale (e. g., Campbell, Landis, & Regard, 1986 ; Rapsak et al., 1989, 1993 ; voir Perrett et al., 1992).

Le second processus de l'encodage structural traite les aspects invariants, non changeants du visage. Il correspond aux processus décrits par Bruce et Young sous les termes de "description indépendante de l'expression" et par Haxby et al. sous les termes d' "aspects invariants du visage - perception de l'identité unique". Nous ne détaillerons pas ces caractéristiques ici puisqu'elles l'ont déjà largement été. Ce processus est localisé dans le cortex temporal inférieur et, plus précisément, dans le gyrus fusiforme latéral appelé aussi aire temporale du visage (Kanwisher et al., 1997)38

L'étape suivante consiste en la réactivation en mémoire des informations faciales. Nous considérons 4 processus : reconnaissance de l'expression faciale émotionnelle, catégorisation du genre, accès aux représentations faciales mnésiques et accès aux informations sémantiques. Les trois premiers reçoivent directement des projections ascendantes d'un ou des deux processus d'encodage structural. Le quatrième nécessite une médiation par les représentations mnésiques des visages. Chacun de ces processus permet d'extraire un type d'information à partir des informations collectées lors de l'encodage structural. Le processus de reconnaissance de l'expression faciale émotionnelle, comme son nom l'indique, est impliqué dans la reconnaissance de l'émotion exprimée par le visage. Ce processus est présenté de manière unitaire, mais les recherches actuelles suggèrent qu'il opère dans différentes régions, notamment l'amygdale, l'insula et le système limbique. La catégorisation du genre est ici individualisée, ce qui contraste avec les précédents modèles. Bruce et Young l'incluent dans les "processus visuels dirigés" et Haxby et al. n'en parlent pas. Nous nous contentons de considérer le genre seul car nous avons développé des recherches et une conception qui portent spécifiquement sur cette information. Il manque donc à notre architecture les processus chargés de l'âge, du groupe ethnique, etc39. La localisation précise du processus de catégorisation du genre reste à établir. Elle s'annonce toutefois problématique. En effet, les recherches en imagerie cérébrale montrent bien des activations, mais elles sont les mêmes que celles observées lors de tâches d'identification (e. g., Dubois et al., 1999). Finalement, l'accès aux représentations faciales mnésiques et l'accès aux informations sémantiques permettent l'identification de la personne. Il est donc important, à ce stade, de préciser la nature de ces deux derniers processus.

Les processus mis en oeuvre dans l'identification d'une personne font actuellement l'objet d'un débat. Bruce et Young parlent d' "unités de reconnaissance du visage" (URV) dont l'activation va permettre l'accès aux "noeuds d'identité de la personne". Leur conception des représentations mnésiques des visages s'apparente au concept d'unités gnostiques de Konorsky (1967). Une unité gnostique répond à une entité et à elle seule quels que soit l'angle de vue et la distance. Au niveau du visage, ces unités seraient des cellules de type "grand-mère" (Young & Bruce, 1991) avec, par exemple, une cellule faciale qui s'activerait chaque fois que l'on verrait notre grand-mère, quels que soit le point de vue, la distance, le mode d'exposition (i.e., photographie en noir et blanc ou en couleur, conditions réelles, dessin ou caricature) mais aussi quelle que soit son expression et même si on ne l'a pas vue depuis longtemps. Le stock d'URVs décrit par Bruce et Young est un réservoir d'unités gnostiques ou de cellules "grands-mères"40. Quatorze ans plus tard, Haxby et al. proposent un lien direct entre l'encodage structural et l'accès aux informations sémantiques : les URVs disparaissent, sans commentaire particulier ou justification des auteurs. Cette "étrange" disparition peut s'expliquer pour plusieurs raisons. Tout d'abord, Haxby et al. s'inspirent très largement des données neurophysiologiques. Or, ces données ne permettent pas de déterminer un site de stockage des représentations faciales. Tout au plus a-t-on identifié deux régions, une qui répond aux aspects invariants du visage - le gyrus fusiforme - et une autre qui permet l'accès aux informations sémantiques - le cortex temporal antérieur - sans qu'apparaisse une région "intermédiaire" où seraient stockées des URVs ou quelque chose qui leur ressemble. Aucune unité gnostique ou cellule "grand-mère" n'a donc encore été mise en évidence. D'ailleurs, l'existence même de ces unités est remise en cause par plusieurs chercheurs pour qui la représentation mnésique est largement distribuée plutôt que localisée (e. g., Gross, 1992 ; Montoute, 1999 ; pour un débat, voir Burton & Young, 1999 ; O'Reilly & Farah, 1999 ; Young & Burton, 1999 ; voir aussi Tiberghien, 1989, 1997).

Le dernier niveau est celui de la décision. A ce niveau, l'information qui provient des niveaux précédents est évaluée afin de décider si elle correspond ou non à une information faciale particulière, i.e., le visage est-il souriant ? familier ? appartient-il à une femme ou à un homme ? etc. Ce niveau n'est pas toujours étudié dans les modèles actuels, même les plus récents (e. g., Haxby et al., 2000). Les rares cas où la décision est précisément décrite sont les modélisations computationnelles dans lesquelles une sortie (i.e., une réponse) est nécessaire (e. g., Burton et al., 1990, voir aussi Valentin, Abdi, O'Toole, & Cottrell, 1994). Dans ce cas, la décision est un système d'évaluation du niveau d'activation des étapes antérieures : à partir d'un certain seuil, le système répond que le visage est familier. Les autres modèles, lorsqu'ils considèrent la décision, ne le font que de manière elliptique et "vaporeuse". Bruce et Young, notamment, situent la décision au niveau du reste du système cognitif qui est représenté sous la forme, non d'une boîte, mais d'un nuage. Dans ce modèle, l'objet de la décision est d'ailleurs indéterminé puisque le système cognitif décide si un visage est familier ou non, s'il exprime telle ou telle émotion ou s'il appartient ou non à telle ou telle catégorie sémantique, que cette catégorie soit dérivable de l'analyse de sa structure (e. g., genre) ou de l'accès aux souvenirs (e. g., catégorie socio-professionnelle). Il n'existe donc, apparemment, qu'un seul processus de décision et les auteurs ne précisent pas comment il peut déterminer la nature des informations sur lesquelles il doit porter ou qu'il doit ignorer. La prise en compte et la description de ce processus est pourtant un point crucial lorsqu'on étudie le traitement du visage. La présentation d'un visage met automatiquement en oeuvre un grand nombre de processus différents qui permettent l'extraction d'informations variées. De plus, il apparaît maintenant que des interactions existent entre ces processus. D'ailleurs, certaines de ces interactions se manifestent au niveau même de la décision (voir Chapitre 6). Le système cognitif doit donc mettre en oeuvre des processus qui lui permettent de faire le tri parmi la masse d'informations dont il dispose et déterminer leur degré de pertinence par rapport à la décision requise. Nous proposons donc que le système de décision sélectionne l'information en fonction de la réponse requise ; si la décision porte sur la familiarité du visage, les représentations mnésiques sont prises en compte et d'autres sources d'information sont inhibées (comme celles permettant le traitement de l'expression faciale émotionnelle, par exemple). Ce processus de sélection a évidemment un certain coût attentionnel : le système cognitif doit disposer de suffisamment de ressources attentionnelles pour effectuer une sélection pertinente pour la réalisation de la tâche.

Plusieurs recherches récentes indiquent que l'hypothèse d'une modulation - par des processus attentionnels - de l'activité des régions cérébrales impliquées dans le traitement de l'information faciale est plausible. Notamment, l'activité du gyrus fusiforme est plus importante quand les participants sont engagés à porter leur attention sur le visage (Clark, Parasuraman, Keil, Kulansky, Fannon, Maisog, Ungerleider, & Haxby, 1997 ; Wojciulik, Kanwisher, & Driver, 1998). De même, l'amplitude de la N170 au niveau temporal, considérée comme un indicateur de l'encodage structural du visage, est plus importante lorsque les participants doivent être attentifs à l'apparition de visages (Eimer, 2000).

La localisation cérébrale du processus de décision reste à établir précisément mais le cortex frontal et/ou pré-frontal est très probablement impliqué. Tout d'abord, cette région est active dans plusieurs recherches ayant enregistré l'activité cérébrale lors du traitement de l'information faciale (e. g., Sergent et al., 1992, 1994)41. Des cellules "faciales" y ont été enregistrées chez le singe (e., g., O Scalaidhe, Wilson, & Goldman-Rakic, 1997 ; Pigarev et al., 1979 ; Wilson et al., 1993) et, chez l'homme, des ondes cérébrales ont également été enregistrées au niveau du cortex frontal (Allison et al., 1999 ; Marinkovic, Trebon, Chauvel, & Halgren, 2000) et lors d'étude de potentiels évoqués (e. g., Guillaume & Tiberghien, 2001). Une lésion frontale peut aussi provoquer des troubles de la reconnaissance du visage (Rapcsak, Polster, Glisky, & Comer, 1996). La stimulation de certaines régions préfrontales provoque par ailleurs des hallucinations consistant en une succession de visages (Vignal, Chauvel, & Halgren, 2000). Guillaume et Tiberghien (2001) ont par ailleurs observé que l'amplitude de la N200 est plus importante au niveau frontal lors d'une tâche de reconnaissance épisodique de visage quand le contexte - et, en particulier, l'expression faciale - est modifiée entre l'encodage et la reconnaissance. Grady, McIntosh, Horwitz et Rapoport (2000) ont observé que l'activité du lobe frontal augmente lorsque la qualité du visage est dégradée, indiquant probablement l'allocation de ressources cognitives supplémentaires pour l'analyse du stimulus (voir aussi Kanwisher & Moscovitch, 2000). Plusieurs auteurs ont d'ailleurs suggéré que le lobe frontal fait partie intégrante du système de traitement de l'information faciale et que ses interactions avec le gyrus fusiforme sont un élément clef du traitement du visage (Marinkovic et al., 2000 ; Vignal et al., 2000). Notons à ce propos que les troubles schizophréniques apparaissent associés, d'une part, à une baisse de l'activité du lobe frontal et, d'autre part, à des problèmes de coordination de l'activité des lobes frontal et temporal (pour une revue, voir Mitchell, Elliott, & Woodruff, 2001). On peut donc suggérer que la capacité à dissocier les différentes informations faciales résulte des échanges entre le cortex frontal et le cortex temporal. Par ailleurs, des études actuelles tentent de déterminer le rôle du système limbique dans la décision comme processus de filtrage, de traitement contextuel, de « binding », en liaison probablement avec les régions préfrontales, en particulier gauche.(Guillaume, 1999).

Une caractéristique importante du modèle que nous proposons est l'interaction entre l'ensemble des processus présentés : les flèches - i.e., interconnexions - sont toutes à double sens. Elles relient donc, d'une part, les niveaux inférieurs aux niveaux supérieurs dès les premières étapes de traitement et, d'autre part, les différents processus situés à un même niveau. Certaines des interconnexions que nous représentons ne sont pas nouvelles ; Bruce et Young prévoyaient déjà que le système de décision (ou système cognitif dans leur terminologie) exerçait un effet descendant sur des processus de niveau inférieur en fonction des attentes du système et de la décision requise. Nous ne rediscuterons donc pas de la validité de ces connexions. Cependant, nous proposons que les relations réciproques opèrent dès les premiers niveaux ou, en d'autres termes, que l'activation peut passer des niveaux supérieurs au niveau de traitement perceptif précoce par un processus descendant. Bruce et Young ne prévoyaient pas de projection descendante en deçà de ce que nous appelons les processus de récupération de l'information faciale. Par ailleurs, nous proposons aussi des interconnexions entre les différents processus d'un même niveau c'est à dire entre les deux processus d'encodage structural d'une part et, d'autre part, entre le processus d'accès aux représentations mnésiques et ceux assurant le traitement de l'expression faciale émotionnelle et la catégorisation du genre.

Un ensemble de données empiriques étaye l'hypothèse d'existence de ces deux types d'interconnexions. Pour ce qui est des projections descendantes, Dubois et al. (1999) ont observé une diminution de l'activation dans les aires visuelles primaires lorsque les visages sont familiers. Cette diminution opère d'ailleurs alors même que la tâche n'implique pas l'identification du visage mais la simple catégorisation du genre. Elle se traduit aussi par une diminution de la latence de catégorisation correcte du genre. Ces résultats indiquent donc que l'accès à la familiarité du visage exerce une influence descendante sur le traitement perceptif précoce de l'information faciale. Les résultats des expériences présentées au Chapitre 7 renforcent cette interprétation lors d'une tâche portant, cette fois ci, sur l'expression faciale émotionnelle : le traitement de l'expression est favorisé par la familiarité du visage. De même, l'information faciale - qu'il s'agisse de l'identité, du genre ou de l'expression faciale émotionnelle - est plus discriminable sur des visages familiers plutôt qu'inconnus (Chapitres 2 et 7). Quelques données étayent aussi l'influence descendante de l'expression faciale émotionnelle sur les niveaux précoces. Par exemple, Calis et Mens (1986) ont observé que lorsque deux visages sont présentés l'un après l'autre, rapidement et à la même position, les participants identifient celui qui sourit plutôt que le neutre. Le sourire favorise donc la perception et, ainsi, l'identification de celui qui l'exprime. Dans l'Expérience 3, nous avons aussi rapporté un effet du sourire sur la discriminabilité de la familiarité. Ceci suggère que le sourire influence la reconnaissance à un niveau précoce, celui de l'encodage structural ou de l'accès aux représentations mnésiques42.

Considérons maintenant les projections latérales au sein d'un même niveau. Pour ce qui est du niveau de l'encodage structural, l'interconnexion est aussi proposée par Haxby et al.. Elle résulte du fait que les deux régions en question, STS et le gyrus fusiforme (TI), sont voisines et échangent des informations. La nature de ces échanges et leurs conséquences ne sont cependant pas très claires car elles n'ont pas encore donné lieu à des études détaillées. De même, les interconnexions entre les différents processus de récupération de l'information faciale sont ici posées comme de simples hypothèses de travail. Ces hypothèses ont cependant quelques raisons d'être. Par exemple, l'interconnexion du processus de catégorisation du genre au processus d'accès aux représentations mnésiques implique que le premier influence la recherche en mémoire lors d'une tâche d'identification. On peut effectivement suggérer que la détermination rapide du genre permet de comparer le visage perçu avec les seules représentations des personnes de même genre : le seuil d'activation de ces dernières serait alors abaissé et/ou celui des personnes de genre différent serait augmenté. De même, l'interconnexion entre le traitement de l'expression faciale émotionnelle et l'accès aux représentations mnésiques offre une explication possible des résultats de l'Expérience 3 : la baisse de discriminabilité de la familiarité des visages souriants peut résulter d'une diminution généralisée du seuil d'activation des représentations mnésiques. Un seuil plus bas favoriserait l'activation des représentations correspondant à un visage familier, mais augmenterait du même coup la probabilité des fausses alarmes, i.e. l'activation d'une représentation par un visage en réalité inconnu. Notons que l'étude expérimentale de ces hypothèses est difficile. Chaque processus peut influencer l'autre de trois manières : (1) directement, comme nous venons de le voir, (2) par le biais du niveau supérieur (par exemple, le système de décision peut provoquer une modulation du seuil d'activation des représentations quand il reçoit l'information en provenance de la catégorisation du genre ou du traitement de l'expression faciale émotionnelle) ; et (3) par le biais du ou des niveaux inférieurs (par exemple, comme nous l'avons vu, l'accès aux représentations mnésiques améliore le traitement perceptif du visage ce qui favorise l'extraction des différentes informations faciales par les autres modules).

En conclusion, le traitement de l'information faciale ne peut plus être considéré comme un système modulaire dans le sens fodorien le plus strict du terme. Même si des processus différents, sous-tendus par des régions cérébrales distinctes, interviennent dans l'extraction des différentes informations faciales, ces processus présentent de nombreuses interactions à différents niveaux qui s'étendent de l'extraction précoce de l'information perceptive à la décision. La capacité de réponse sélective à tel ou tel type d'information faciale implique l’intervention de mécanismes attentionnels. Si tous les processus sont en forte interconnexion et exercent des influences réciproques, ne serait-il pas raisonnable d'admettre que le système de traitement de l'information faciale est un système hautement intégré ? Farah (1994) a démontré qu'il est possible de rendre compte de la dissociation entre reconnaissance consciente et reconnaissance inconsciente du visage par la simple lésion, plus ou moins importante, d'un seul et même système de reconnaissance du visage. On peut aussi supposer que le système de traitement de (toute) l'information relative au visage repose sur un système unitaire, composé d'un ensemble de composants effectuant des opérations spécifiques. La réponse de ce système serait alors déterminée par la combinaison de ces opérations. La détérioration de certains composants perturberait le système de traitement de l'information faciale pour certaines fonctions - par exemple, la détermination de l'état émotionnel ou du genre - mais elle ne remettrait pas en cause la réalisation d'autres fonctions comme, par exemple, l'identification de la personne.

Notes
38.

La spécificité de cette aire pour le traitement de l'information faciale est actuellement discutée (e. g., Gauthier et al., 1999a, 1999b).

39.

En 1986, Bruce et Young suggéraient qu'il faille dissocier les processus (ils parlaient, en fait, de modules) impliqués dans chaque information dérivée de l'analyse de la structure du visage. A l'appui de cette conception on peut citer les études indiquant que certains patients prosopagnosiques sont atteints pour l'une de ces informations (e. g., le genre) et préservés pour les autres (e. g., l'âge), ou inversement (e. g., Schweich & Bruyer, 1993).

40.

Bruce et Young admettent quand même qu'il n'existe pas seulement une unité pour une personne. Cette dernière serait représentée à travers plusieurs URVs qui se distingueraient, notamment, par l'angle de vue auquel elles seraient sensibles (voir Bruce, 1988 ; Young & Bruce, 1991).

41.

On peut supposer que l'absence d'activation de cette région, dans certaines études d'imagerie, tient à la méthode utilisée. En effet, soustraire l'activité associée à une tâche portant sur le visage de celle associée à une autre tâche, portant également sur le visage, fait disparaître l'activité commune et, notamment, celle provenant de la prise de décision. Il est vraisemblable que le processus terminal de décision ne se différencie pas fondamentalement selon la nature de la tâche, qu'elle porte d'ailleurs sur un visage ou non.

42.

Pour expliquer l'effet de la familiarité, on peut aussi supposer - sans invoquer de projection descendante - une modification permanente au niveau des aires visuelles pour les visages familiers. Cette conception expliquerait cependant difficilement l'effet du sourire sur la reconnaissance du visage : il est peu probable qu'on perçoive plus souvent des sourires que des expressions neutres.