Modèles minimalistes et maximalistes

Si la séparation en quatre grandes étapes est conventionnellement intégrée, l'analyse des erreurs de langage (Fromkin, 1971 ; Garrett, 1980) ainsi que des mesures chronométriques (Schriefers, Meyer & Levelt, 1990) ont entraîné l'émergence de deux courants de pensées modélisant les processus impliqués lors de la production de mots (voir pour une synthèse Vigliocco & Hartsuiker, 2002).

La première théorie, soutenue par un certains nombre de données expérimentales (Garrett, 1975, 1980 ; Levelt, 1999a, 1999b ; Levelt, Reolofs & Meyer, 1999 ; Vigliocco, 2002), est également appelée par Vigliocco et Franck (1999) 'minimaliste'. Elle se base sur le concept d’après lequel le traitement des informations s'opère selon un flux unidirectionnel sans feedback possible. Ce mécanisme strictement sériel implique que l'analyse des informations à un niveau (n+1) ne démarre que lorsque les informations du niveau (n) ont elles même été traitées, et ce dans le but de servir d'entrées (ou input) à l'étape suivante. L’hypothèse de séquentialité des événements va imposer la présence d’un cloisonnement informationnel, défini par le principe de modularité de Fodor 2 (1983). Il n'y a donc, dans ce type de modèles, aucune interaction possible entre les différents stades de traitement.

Basée sur les réseaux de neurones et les modèles connexionnistes (Dell, 1986 ; Harley, 1993), la seconde hypothèse présuppose quant à elle la présence d’une interaction entre les différents niveaux de traitement via l’intervention de mécanismes de pré-activation et de feedback. Ils sont donc, de par leur fonctionnement, appelés modèles ‘maximalistes’ ou interactifs. Le flux bidirectionnel ainsi induit permet une activation partielle des données traitées par un niveau (n+1) alors même que l'analyse des indices en (n) n'est pas encore totalement achevée. Ceci va avoir pour conséquence, l'influence du niveau (n+1) sur l’opération du niveau (n) lui-même. Le débat est actuellement encore ouvert quant à la possibilité de parler ‘d’interaction' dans les cas d’influences indirectes, c'est à dire les impacts portant sur un autre processus que (n) mais relevant néanmoins du même niveau que (n) (voir Rapp & Goldrick, 2000).

Nous allons revenir et développer ces deux théories dans la partie qui suit. Cette dernière aura également pour but de faire un tour exhaustif des principales techniques expérimentales utilisées au cours des dernières décennies afin d’étudier les mécanismes conduisant à la production de parole.

Notes
2.

En 1983, le psychologue cognitiviste Jerry Fodor propose sa théorie de la modularité. Cette dernière postule que l'esprit humain est constitué de modules destinés à traiter de façon automatique un type très limité d'informations. Il assimile donc les facultés cognitives à des modules de traitement de l'information. Fodor considère ces modules cognitifs comme des automates traitant des "entrées" (input) et produisant des "sorties" (output). L'état interne du système correspondrait à nos états mentaux et à nos représentations mentales. Cette théorie computationnelle de l'esprit considère les individus comme des systèmes traitant de l'information. A partir de cette simple définition il est possible de donner au terme de modularité deux directions distinctes : la modularité interne (1) qui renvoie à la décomposition de la faculté de langage en modules censés effectuer un ensemble de fonctions tel que les processeurs phonologique, morphologique, syntaxique et sémantique (Coltheart & Davies, 1992) ; (2) La modularité externe quant à elle va concerner l’autonomie de la faculté de langage elle-même, c'est-à-dire son degré d’autonomie à l’égard de processus opérant dans d’autres modules (par exemple acoustique non verbale, ou visuo-spatiale), ou de capacités cognitives de planification, de contrôle et de méta-représentation.

Ces systèmes périphériques représentant les modules vont avoir pour fonction de réaliser des inférences obligatoires, spécifiques à un domaine et non conscientes. Plusieurs caractéristiques vont permettre de les identifier: ils sont propres à un domaine (perception de la couleur, de la forme, des visages, etc.) ; leurs opérations sont obligatoires et ne peuvent être contrôlées intentionnellement ; ils sont rapides ; ils sont informationnellement cloisonnés et insensibles aux influences latérales des autres systèmes périphériques et, a fortiori, aux influences de plus haut niveau ; ils s'inscrivent physiquement dans des architectures neuronales fixes ; ils présentent des défaillances spécifiques et pour terminer, ils présentent une ontogenèse caractéristique (Fodor, 1983). Les sorties de ces modules sont combinées et intégrées dans les systèmes dits centraux analogiques et non spécifiques. Ils mettent en jeu, simultanément, plusieurs sorties des systèmes périphériques. Leurs opérations sont inscrites dans de nombreux circuits neuronaux distincts. En résumé, l'hypothèse de la modularité rompt radicalement avec la théorie holistique du fonctionnement cognitif, et repose plutôt sur une architecture séquentielle et ascendante ("bottom-up") pour décrire le flux des traitements cognitifs.