Le réductivisme informatique : d’une différence entre calcul et pensée.

Penser est-ce « calculer » comme l’affirmait déjà il y a plus de trois cents ans Hobbes. C’est en tout cas un des postulats de base de la pensée dominante en psychologie cognitive. Voici par exemple les thèses défendues par G. Vergnaud dans son article ‘«’ ‘Pourquoi la psychologie cognitive’” 336 . On lit, page 11 : ‘«’ ‘1ère thèse’ ‘ : les processus cognitifs sont des processus de représentation et de calcul.”’ (et la représentation se réduit aussi pour lui à des calculs : ‘«’ ‘ l'hypothèse générale est que la représentation consciente ou inconsciente, forme un système calculable”’) ; ‘«’ ‘2ème thèse’ ‘ : ces calculs sont effectués principalement par le cerveau, même si des calculs plus locaux sont effectués à des niveaux plus périphériques ; ’ ‘3ème thèse’ ‘ : ces calculs ont pour fonction de générer des actions efficaces en fonction des informations prise sur la situation à traiter’».

L’hypothèse qui constitue le fondement de ce réductionnisme « informatique » est que l'ordinateur est un modèle valable de l'esprit humain, et donc, un computeur étant un calculateur, l'idée qu'à la base, le fonctionnement de l'esprit humain est réductible à des séries de calculs. Depuis Alan Turing on sait que toute tâche computationnelle explicite peut être réalisée par une machine qui posséderait un ensemble fini d'instructions appropriées. Une machine de Turing peut en principe effectuer tout calcul concevable. Le principe en est simple : une bande indéfinie passant devant un déchiffreur qui la lit.. La bande est divisée en cases contenant soit un blanc, soit une barre. La machine de Turing peut effectuer quatre opérations : déplacer la bande à droite, à gauche, changer le blanc en barre, ou la barre en blanc. Par ces seules quatre opérations, la machine peut exécuter n'importe quel programme exprimable en code binaire. On a là le principe de base du calcul informatique qui peut traiter n’importe quel problème, dés lors que les données sont traduites en langage symbolique binaire. Il n’est donc pas étonnant que ce soit A. Turing qui, le premier, ait posé la fameuse question, ‘«’ ‘ les ordinateurs pensent-ils ? ’» dès 1950  337 et proposé un test aussi célèbre que surfait pour y répondre.

Au départ cependant le projet informatique d’explication du mental ne semble pas réductiviste. N’ayant pas à poser la question, incontournable pour les neuro-sciences, du lien entre l’esprit et le cerveau, avec comme horizon la réduction entre les deux «substances”, le cognitivisme informatique semble se satisfaire d’un modèle «fonctionnaliste”du mental. ‘«’ ‘ Comment ça fonctionne ? ’» c’est ce qu’il importe seulement de comprendre, et peu lui chaut le support de ce fonctionnement. Ce lien fort entre l’intelligence artificielle et le choix fonctionnaliste, permet à première vue de tenir à l’écart l’épineuse question du réductivisme. Mais ce n’est pas si simple. On peut le vérifier en analysant le modèle habituellement retenu pour expliquer l’architecture de l’appareil mental qu’est le modèle de Marr (1982) sur la vision. Selon ce modèle on peut expliquer le fonctionnement de la machine cognitive en utilisant trois niveaux dont aucun ne peut être réduit à l'autre : le niveau le plus élevé est le niveau intentionnel ou ( nous reviendrons sur ce «ou”) sémantique, où se trouve défini le but ; au-dessous se trouve un niveau syntaxique ou algorithmique où sont posées les règles de calculs ; le troisième niveau est celui des mécaniques physiques, qui font fonctionner les puces ou les circuits 338 . Seul ce dernier décrit des réalités matérielles obéissant à une causalité physique. Les deux niveaux supérieurs, non réductibles, puisque leurs opérations peuvent être effectuées par des systèmes différents, représentent, sont un bon modèle de l'appareil psychologique 339 .

Pour un psychologue, ce modèle soulève les critiques suivantes. S’il nous offre à première vue l’opportunité d’échapper au réductivisme matérialiste en nous permettant de penser la séparation entre un niveau de fonctionnement (psychologique) et un niveau de «quincaillerie” (physique, ou biologique), il n’en conduit pas moins à une réduction de l’esprit qui laisse échapper beaucoup de ses caractéristiques et de ses conditions de fonctionnement . Car ce qui se passe aux 1 et 2, dits «psychologiques”, ce sont uniquement des calculs. Des calculs au niveau 1, intentionnel ou sémantique 340 . Des calculs au niveau 2 syntaxique et algorithmique. Les algorithmes du niveau 2 peuvent être différents, leurs supports matériels (niveau 3) également, mais ce qui fonctionne aux niveaux 1 et 2, tout le logiciel, les calculs et les règles, ce ne sont en dernier ressort que des calculs.

Si nous avons rappelé ceci c’est pour montrer que l’hypothèse fonctionnaliste ne protège en rien la psychologie du réductivisme. Suivant sa pente logique, elle débouche naturellement sur ce que Searle (1980) a appelé la thèse «forte” de l'intelligence artificielle, thèse selon laquelle toute activité mentale pouvant être réduite à des algorithmes, des termes psychologiques comme ”intention” ou «sens” doivent disparaître comme notions trop subjectives et prè-scientifiques, inutiles ou même nuisibles à l'explication du fonctionnement mental. Rien d’étonnant là-dedans ; il est bien naturel que des informaticiens ramènent tous les états et processus «mentaux” à de la computation.

Nous n’essaierons pas de répondre aux thèses réductionnistes de l’I.A. en nous plaçant sur son propre terrain. D’abord parce que cela dépasse nos compétences, bien limitées en ce domaine, mais surtout parce qu’en se plaçant sur leur terrain on rentre nécessairement dans un débat piégé. Nous ne soulèverons que des objections prosaïques, car cette assimilation de l’appareil psychique à un calculateur alerte immédiatement le bon sens. Un calculateur, ça ne se trompe pas. Mais si l’esprit est un computer, d’où vient qu’il se trompe tant 341  ? Si les processus élémentaires sont des calculs, d'où viennent les difficultés rencontrées par des hommes intelligents sur des problèmes logiques simples (On cite souvent par exemple le problème de P.Wason et Ph. Johnson-Laird (1972) 342 , 80% d’échecs pour les humains, là où un ordinateur ne peut faire d’erreurs)? Peut-on dire que le passage du langage machine à des représentations supérieures (les modèles mentaux de Johnson-Laird) autorise ce genre d'erreurs ? Il y aurait apparition d’erreurs avec des degrés de liberté supplémentaires…Mais toute la question est justement celle du degré de jeu, de liberté, pris par les processus supérieurs, par rapport aux niveaux inférieurs immergés dans la mécanique. 343

Quoi qu’il en soit, l’homme ne semble pas penser comme un computeur. Quand nous avons affaire au monde, ce qui nous est plus coutumier et plus facile que la résolution de problèmes logiques ou mathématiques ( c’est l’inverse dans la vie d’un ordinateur 344 ), nous utilisons rarement nos capacités logiques mais plutôt notre familiarité avec tel domaine mondain. Et tout particulièrement les calculs logiques ne nous sont d'aucune utilité lorsque nous devons prévoir le comportement d'un autre individu et faire preuve de « psychologie ». Contrairement à ce que supposait par exemple Lacan, dans ce genre de situation, on s’en sort mieux avec la psychologie ordinaire, qu’avec la théorie des jeux. Les règles de cohérence que nous appliquons pour la prédiction de ces comportements ne doivent rien à la logique mathématique. Les représentations que nous utilisons dans la résolution des problèmes mondains sont d’un autre niveau et d’une autre nature que les « représentations » de la théorie de l’information (nous y reviendrons plus loin). En tout cas, on devine que le modèle du computer digital, le calculateur modèle Turing, ne peut suffire à expliquer le fonctionnement de la pensée. Qu’il y a un décalage, un changement de fonctionnement en même temps que de niveau.

D’où le recours des chercheurs en I.A. à un autre modèle dit « connexionniste » qui ne repose pas sur la logique de Boole (0-1) 345 mais sur la logique floue (fuzzy logic). Comme le dit un des pères de son adaptation en I.A. : ‘«’ ‘  la logique floue est une branche de l'intelligence artificielle qui aide à teinter de gris et de bon sens des représentations d'un monde incertain »’ 346 . Voilà qui semble permettre d'approcher le fonctionnement de la pensée naturelle. Pour en rester par exemple au raisonnement logique pratiqué par les humains, on sait depuis les recherches de E. Rosch (1976), que nous ne raisonnons pas spontanément sur les pures classes logiques, - où les frontières doivent être absolues : un objet est A ou non-A 347 -, mais à partir de catégories floues organisées par des prototypes plus exemplaires d’une classe 348 . Ce qui fait qu'un exemplaire d'une catégorie est plus prototypique qu'un autre, le moineau plus exemplaire de la classe des oiseaux que le canard, c'est un fait du monde, le fruit du processus d’adaptation. La logique floue permettra-t-elle de rapprocher le fonctionnement des nouveaux ordinateurs, du fonctionnement humain, arrivera-t-elle à approcher d’une intelligence incarnée  ? Faut-il penser que l’appareil psychique humain serait l'amalgame de plusieurs types d'ordinateurs ? Mais même ainsi complexifiées ces mécaniques informatiques restent coupées de quelque chose de capital. Parce qu'enfin nous savons que les facteurs essentiels de nos comportements intérieurs et extérieurs sont le contexte, notre histoire, ainsi que les aspects affectifs, et que le corps est là essentiel, toutes choses étrangères aux computeurs.

Une des caractéristiques essentielles de l’esprit concret, du mental concret, du psychisme concret est sa non-déductibilité. Le psychisme concret, pour des raisons diverses qui tiennent toutes à son incarnation dans un corps donné, dans des contextes variables, dans une histoire unique, n’est pas déductible. Le psychisme n’est pas prédéterminé au départ selon le plan tracé par un démiurge ou un informaticien, il est le résultat de bricolages successifs, d’adaptations de circonstances 349 . L’évolution de l’espèce, dont notre appareil psychique est un des résultats, ne s’est pas déroulée selon une suite déductive inéluctable, elle fut chaotique, tirant parti d’opportunités imprévisibles, et détournant à contre-sens des potentiels inattendus, telles les écailles du reptile transformées en plumes d’oiseaux. Il en est du psychisme individuel comme de l’histoire de la construction de l’appareil psychique au long de l’évolution. Il est le résultat d’une multiplicité de rencontres et de hasards, et des solutions de fortune nées à ces occasions, parfois répétitives, parfois totalement neuves.

Notes
336.

« La pensée”, Juillet-Août 1991, pp. 9-19.

337.

Dans «Computing machinery and intelligence”(1950, 1963). Alan Turing, savant au destin singulier, mathématicien et ingénieur, décrypteur d’Enigma, mit en scène son suicide selon le scénario de la mort de Blanche-neige (aucun prince charmant ne vint le réveiller). Son test : nous devrons admettre que les ordinateurs pensent comme nous quand nous ne pourrons plus distinguer entre les réponses données par un ordinateur et celles données par un humain. On voit qu’il s’agit d’une conception «extérieure”, béhavioriste de la pensée. Au test de Turing, John Searle (1980) a opposé l’argument de «La chambre chinoise”.

338.

Pour l’ordinateur. Dans le cas d’un système vivant, il s'agit d'appareils neurophysiologiques.

339.

C’est un modèle constamment repris, et d’origine plotinienne. On le retrouve par exemple chez Davidson (1982), pour expliquer les raisons (niveau supérieurs) par des causes (niveaux inférieurs). De même, partant de la constatation que l'intentionnalité apparaît à un certain niveau de complexité, Dennett (1978) postule qu'on peut décomposer un système intentionnel («  humainement » intentionnel) en sous-systèmes de telle sorte qu'à un certain niveau les sous systèmes auxquels on aboutirait seraient tellement « crétins » qu'on pourrait leur substituer des machines. Façon élégante mais pour le moment purement verbale de faire disparaître la coupure entre psychologie et physique. J. Hochmann (1991) use d’une très jolie image pour qualifier ces théories « plotiniennes », il parle de l'esprit « s'égouttant » dans le corps.

340.

Notez la double réduction, d’abord de l’”intentionnel” au «sémantique” – nous y reviendrons-, puis du sémantique aux calculs.

341.

Et inversement d’où vient la certitude partagée par de nombreux psychologues que tant de calculateurs prodigieux, capables de rivaliser avec des calculateurs, ne pensent pas, au sens trivial du mot. C’est que pour eux, c’est grâce à la présence dans la pensée de cette capacité de se tromper et de tromper intentionnellement les autres, que le sujet normal se constitue une «théorie” de l’esprit, un modèle intégré à la psychologie «naturelle”et qui n’est pas qu’une «illusion”mentaliste puisqu’il a d’utiles effets pragmatiques.

342.

Voici ce problème : on a quatre cartes dont on voit la face sur laquelle sont inscrites E, K, 4,7. On sait que chaque carte a une lettre sur une face et un chiffre sur l'autre. Vérifier la règle suivante : « si une carte a une voyelle d'un côté, alors elle a un nombre pair de l'autre », en retournant deux cartes seulement. Dans le même ordre d’idées, on pourrait aussi évoquer la critique de la pertinence du théorème de Bayes par L.J. Cohen (1981).

343.

Comment expliquer les comportements illogiques, si l’on pense l’esprit selon le modèle du calculateur? C’est le problème des paradoxes de l’irrationalité soulevé par Davidson (1991). Nous agissons souvent contre notre jugement : je continue à fumer. Pourquoi ? est-ce par ignorance, défaut du raisonnement, faute logique (nul ne fait le mal volontairement). Est-ce parce que je suis mû malgré moi, par une « cause » de type «  physique », mon comportement alors n’a pas de « raison », il n’est plus un acte en tant que tel (au sens où j’en suis l’auteur). La solution de Davidson aux paradoxes de l’irrationnalité, est de reprendre le modèle freudien d’une partition de l’esprit en sous-structures, et d’expliquer la différence entre raison et cause en terme de niveau : ce qui est décrit en terme de raison au niveau de l’esprit total, peut être décrit en termes de cause dans les sous-structures (NB. Il est classique de se dégager des paradoxes logiques (Epiménide le Crétois)en distingant des niveaux dans l’énoncé. Mais ici ce qui est réintroduit c’est la solution dualiste).

344.

Voir par exemple dans «La recherche en intelligence artificielle”(Seuil, La Recherche, 1987), l’article ancien mais toujours valable sur «Les robots mobiles autonomes”: « Aller chercher le sucre dans la cuisine, distribuer le courrier dans les bureaux (...) nombre de tâches dans les contextes les plus divers ne nécessitent pour leur accomplissement, que peu d'efforts de réflexion de la part de l'homme. Pourtant la conception d'une machine capable d'exécuter ces mêmes ordres pose des problèmes d'une grande complexité et ceci même en restreignant son domaine de fonctionnement à une usine, une centrale nucléaire ou un appartement” (p.335).

345.

A la différence de la logique booléenne, base logique des machines de Turing, qui fonctionne avec seulement deux valeurs 0-1 (elles suffisent pour traduire les trois opérations de la logique classique : et, ou, non), la logique floue admet un continuum de valeurs entre 0 et 1 (Lukasiewicz).

346.

Bart Kosko et Satoru Isaka : «La logique floue”, «Pour la science”, n°191, Sept. 1999, p.62.

347.

«Cryptogame ou phanérogame”, «vertébré ou invertébré” etc.., pour reprendre des éléments du «Systema Naturae” de Linné. 1758. Outre E. Rosh, lire U. Eco : «Kant et l’ornithorynque”, Livres de Poche, 2001.

348.

Ce qui peut expliquer certains décalages à l’épreuve d’inclusion des classes de Piaget. Voir notre article sur les dysharmonies cognitives.

349.

Même le développement des compétences les plus intellectuelles est le fruit de bricolages. Voir le livre de J. Bideaud sur «Logique et bricolage chez l’enfant” qui corrige/complète utilement Piaget..