Du stochasticisme à la spatialisation : le rôle des théorèmes sur les transformations linéaires

À partir de ce que nous avons rappelé précédemment au sujet de l’approche inséparablement technique et épistémologique de Stanislaw Ulam, le fait que ce soit lui qui, en 1951, ait poussé von Neumann à spatialiser sous la forme d’un réseau cristallin la représentation de son réseau d’automates paraît déjà moins surprenant 556 . Comme le montre un grand nombre de ses publications de l’époque, Ulam est alors pénétré des leçons que l’on peut tirer de la généralité de la méthode de Monte-Carlo. Et, par ailleurs convaincu par les arguments de von Neumann sur la supériorité à terme de la technologie numérique, il travaille de son côté en mathématicien à élargir le spectre des usages de ces machines. Or, ce faisant, comme nous l’avons vu, il procède à une espèce de respatialisation de l’analyse combinatoire, de l’analyse fonctionnelle et finalement de la logique et des métamathématiques via la géométrie projective et la méthode de Monte-Carlo. La formalisation antérieure des processus nucléaires de diffusion-multiplication par des processus stochastiques de ramification, venant eux-mêmes en partie de préoccupation propres à la dynamique des populations 557 , a donc beaucoup fait pour introduire cette spatialisation générale des formalismes. C’est la mise à disposition de calculateurs numériques qui avait fortement contribué à suggérer à von Neumann, Metropolis et Ulam l’usage de ce nouveau formalisme pour la conception de la bombe H. C’est également l’existence de calculateurs numériques à grande vitesse, se révélant très performants d’une part pour manipuler des représentations discrétisées et, d’autre part, pour tirer des nombres pseudo-aléatoires, qui incite par la suite Ulam à élargir cette discrétisation et cette spatialisation à tout formalisme jusque dans le cadre même de la théorie des automates de von Neumann 558 . On peut enfin conjecturer que les conversations nombreuses et approfondies qu’Ulam avait eu avec son vieil ami de la Society of Fellows de Harvard, le philosophe Alfred North Whitehead (1861-1947), n’ont pas joué pour rien dans cette vision tout à la fois atomisée et répartie des processus physiques 559 .

Mais les indices techniques dont nous disposons sont encore plus nets si l’on veut confirmer l’influence de Ulam sur cette question de la spatialisation. Car, dans le cadre des prolongements des théorèmes sur l’ergodisme, von Neumann et Ulam avaient auparavant montré un résultat mathématique important et qui tendait à tempérer le rôle du caractère aléatoire des processus impliqués dans la méthode de Monte-Carlo 560 . Il existe ainsi un moyen de faire du Monte-Carlo sans processus stochastique. Mais cela nécessite que l’on ait recours à des itérations de transformations linéaires sur un espace infini 561 . Ulam revient particulièrement sur ce point de mathématique dans son article de 1952 intitulé « Processus aléatoires et transformations » 562 . Ulam y insiste beaucoup sur le fait qu’il ne faut pas considérer le caractère aléatoire comme une propriété mathématique essentielle et irréductible à quoi que ce soit d’autre. Cette indication doit nous faire comprendre que le stochasticisme d’Ulam tient beaucoup moins au privilège qu’il accorde à l’aléa qu’au grand cas qu’il fait de l’atomisation, si l’on peut dire, ou plutôt de la discrétisation et de la ramification qui se trouve par ailleurs si intuitivement représentable dans l’espace géométrique trivial 563 . D’où cette phrase essentielle :

‘« On devrait se rappeler que la distinction entre un point de vue déterministe et un point de vue probabiliste réside souvent seulement dans l’interprétation et non dans le traitement mathématique lui-même. » 564

Ainsi, comme l’avaient démontré Dodd, Hopf et Khintchine 565 et comme le rappelle Ulam, si l’on dispose d’un ensemble de nombres réels exprimés en format binaire, avec une transformation déterministe des nombres les uns en les autres définie par un simple décalage de 1 dans le développement binaire, le théorème ergodique s’applique à cette transformation alors même qu’elle est déterministe. Donc il n’est pas en soi nécessaire d’avoir recours à des nombres pseudo-aléatoires sur calculateur (d’ailleurs générés eux-mêmes par de telles transformations déterministes) pour utiliser la procédure heuristique que prône Ulam.

Ulam suggère alors qu’on applique cette procédure à un système physique présentant une infinité d’éléments en interaction 566 . En effet, de même que tout formalisme mathématique peut être morcelé et discrétisé, pourquoi ne pas considérer que tout objet de la physique, ce qui occupe les physiciens, est souvent assimilable à « une assemblée de points réellement infinie » 567  ? Généralisant cette suggestion qui lui vient au départ de problèmes non linéaires d’hydrodynamique 568 , c’est ce qu’Ulam appelle un « modèle infini » ou un modèle à une infinité de degrés de liberté. Il considère de façon tout à fait remarquable que cela pourrait même être considéré comme « une nouvelle sorte d’idéalisation » 569 en physique. En effet, dans tout objet de la physique entrent des « paramètres cachés » 570 . Mais on a tendance à chercher soit à traiter les éléments localement, un par un et en les isolant, soit à les traiter en bloc mais de façon approximative et en ne se penchant que sur des valeurs moyennes supposées avoir un sens physique. Ce mot d’« idéalisation » paraît toutefois curieux ici : si l’on prend tout en considération dans le modèle, où réside l’idéalisation ?

Voici comment nous suggérons de comprendre son propos : on doit en fait interpréter cette idéalisation comme valant en extension et non plus en compréhension. C’est le sens même de l’introduction du modèle discrétisé et infini. Il s’agit d’une idéalisation par la multiplication et non par l’abréviation ou la condensation. Les éléments seront chacun idéalisés et simplifiés à l’extrême mais, en contrepartie, c’est leur nombre infini qui va travailler à former une représentation formelle judicieuse. Il s’agit donc d’une idéalisation distribuée à l’infini et qui se manifeste par une extériorisation intégrale des propriétés physiques, donc par une spatialisation en ce sens. Elle explicite les rapports cachés en les discrétisant, certes le plus souvent d’une façon non compréhensible car non synthétisée, ou plutôt non analytique en terme mathématique 571 . Mais, dans ce cadre, la procédure s’apparente à la méthode heuristique de Monte-Carlo et elle a justement un rôle majeur : elle consiste à explorer de façon déterministe ce système modèle infini en ne recourant qu’à des matrices de transformation de rang fini 572 .

Et c’est précisément là qu’intervient l’exemple de la théorie des automates de von Neumann. Car le problème est pour Ulam directement analogue : il s’agit d’un très grand nombre d’éléments en interactions où un grand nombre de degrés de liberté demeurent. En outre, Ulam, partant de son modèle physique infini conçoit logiquement ces automates finis comme dispersés dans un espace infini. À la fin de l’article de 1952, il peut donc rappeler la formalisation spatialisée qu’avec von Neumann, il avait proposée dès 1951 :

‘« Un champ d’application intéressant pour des modèles consistant en un nombre infini d’éléments en interaction peut exister dans les théories récentes des automates [renvoi au cours que von Neumann a donné sur ce sujet en 1949 à l’université de l’Illinois]. Un modèle général considéré par von Neumann et l’auteur serait de la sorte :’ ‘Soit un treillis [« lattice »] ou un graphe de points, chacun avec un nombre fini de connexions avec certains de ses voisins. Chaque point est capable d’avoir un nombre fini d’‘états’. Les états des voisins au temps tn induisent, d’une manière spécifique, l’état du point considéré au temps tn+1.Cette règle de transition est fixée de façon déterministe ou, plus généralement, peut impliquer des décisions partiellement ‘aléatoires’.’ ‘On peut maintenant définir des sous-systèmes finis et clos qui seront appelés automates ou organismes. Ils seront caractérisés par une séquence périodique ou presque périodique de leurs états qui sera fonction du temps et par la caractéristique ‘spatiale’ suivante : l’état des voisins de l’‘organisme’ a seulement une ‘faible’ influence sur l’état des éléments de l’organisme ; l’organisme peut, au contraire, influencer dans toute sa généralité les états des points voisins qui ne font pas partie de l’organisme.’ ‘Un but de la théorie est d’établir l’existence de sous-systèmes qui sont capables de se multiplier, c’est-à-dire de créer au cours du temps des systèmes identiques (‘congruents’) à eux-mêmes. » 573

Voilà donc le point précis où l’approche spatialisante d’Ulam, née explicitement à partir de 1946-1947, en rencontrant en 1951 574 les travaux antérieurs de von Neumann sur la théorie des automates reproducteurs, suggère aux deux mathématiciens d’interpréter l’identité, qui doit se manifester à un moment ou à un autre dans tout phénomène de reproduction, en terme de congruence ou de superposabilité, c’est-à-dire en des termes spatiaux.

C’est donc sur un treillis supposé infini mais semblablement spatialisé qu’entre 1952 et 1953, von Neumann arrive finalement à représenter un automate reproducteur. Ce dernier est cependant complexe : chaque point du treillis porte une couleur sur les 29 possibles et les règles de transition de ces points sont assez compliquées et multiples. Chaque point n’interagit qu’avec ses quatre voisins. Von Neumann montre qu’il faut un « organisme » occupant environ 200000 points pour qu’il y ait à la fois un copieur universel et un contrôleur 575 . Mais von Neumann ne poursuit pas ses travaux en ce sens. Cherchant toujours à saisir l’essence davantage logique des phénomènes de reproduction biologique, il est déçu de n’avoir justement pu dissocier la logique du processus de la modélisation de sa matérialité 576 . Par la suite, en toute cohérence avec sa tentative de construire une théorie générale des automates, il cherchera donc à rendre de nouveau continue et abstractive cette modélisation discrétisée et spatialisée.

Notes
556.

“I proposed to him [von Neumann] some of my own ideas about automata consisting of cells in a crystal-like arrangements”, [Ulam, S., 1976, 1991], p. 241. Voir également [Burks, A. W., 1970], p. 7.

557.

On conçoit que les phénomènes de multiplication et de diffusion des noms de famille incitent à spatialiser les formalismes d’une façon beaucoup moins directe et beaucoup plus figurée que cela n’a été les cas pour les processus de diffusion-multiplication de la physique nucléaire. La physique nucléaire a donc enseigné aux formalismes de la dynamique des populations à se spatialiser, d’abord pour son propre usage. On voit là l’indice d’une influence de notre intuition directe des phénomènes à échelle humaine sur l’interprétation des formalismes que l’on se donne, même les plus apparemment abstraits.

558.

[Ulam, S., 1952], p. 274.

559.

Ulam fait la connaissance de Whitehead en 1936, à Harvard. Ce dernier y est alors Senior de la Society of Fellows. Après une carrière de logicien et de mathématicien en Angleterre, à Cambridge puis à l’Université de Londres, Whitehead avait enseigné la philosophie à Harvard à partir de 1924 ; et il est professeur émérite lorsque sa femme et lui se lient d’amitié avec le couple Ulam. Dans ses mémoires, Ulam ne cache pas son admiration quasi-filiale pour Whitehead, sa pensée et sa hauteur de vue. Il est même un passage qui évoque dans le même contexte les automates cellulaires et la pensée des « procès » telle que l’avait énoncée Whitehead : “The Conway Game of Life is an example of a game or pastime, which, perhaps much like the early problems involving dice and cards, has led ultimately to the present edifice of probability theory, and may lead to a vast new theory describing the ‘processes’ which Alfred North Whitehead studied in his philosophy”, [Ulam, S., 1976, 1991], p. 285. Nous ne disposons cependant pas d’autres documents attestant de ce lien intellectuel entre Ulam et Whitehead. Nous n’en dirons donc pas plus. En ce qui concerne Whitehead et son rôle dans les théories de la croissance, il nous paraît plus avéré dans les travaux de Woodger (voir supra).

560.

[Ulam, S., 1952], p. 266.

561.

Voir une brève allusion in [Ulam, S., 1976, 1991], p. 200.

562.

[Ulam, S., 1952], p. 264.

563.

Les processus de ramification sont très souvent et naturellement représentés par des graphes de choix, des ramifications, des arbres.

564.

“One should remember that the distinction between a probabilistic and deterministic point of view lies often only in the interpretation and not in the mathematical treatment itself”, [Ulam, S., 1952], p. 266.

565.

[Ulam, S., 1952], p. 266.

566.

[Ulam, S., 1952], p. 273.

567.

“actually infinite assemblies of points”, [Ulam, S., 1952], p. 272.

568.

[Ulam, S., 1976, 1991], p. 196.

569.

“a new kind of idealization”, [Ulam, S., 1952], p. 273.

570.

“hidden parameters”, [Ulam, S., 1952], p. 273. Ulam fait bien sûr ici allusion aux avatars de la physique quantique. Il avait lui-même proposé une interprétation discrétisée et aléatoire de la résolution de l’équation de Schrödinger.

571.

Sur ce point, il faudrait sans doute rapprocher cette idéalisation extensionnelle causée par l’application de la méthode de Monte-Carlo de l’effet que produit la « théorie des catégories » (1945) de S. Eilenberg et S. Mac Lane, sur les concepts mathématiques antérieurs de l’algèbre et de la topologie. Le mathématicien René Lavendhomme parle lui aussi d’une catégorie comme d’une « définition extensionnelle et opératoire d’un concept mathématique », [Lavendhomme, R., 2001], p. 265. Nous reviendrons plus bas sur la « théorie des catégories » et sur son rôle dans l’histoire de la modélisation de la morphogenèse.

572.

Voir les derniers mots de l’article de 1952, [Ulam, S., 1952], p. 274 : “Mathematically, the simplest versions of such schemes would consist simply of the study of iterates of infinite matrices, having non-zero elements in only a finite number of terms in each row. The problems consist of finding the properties of the finite submatrices appearing along the diagonal, as one iterates the matrix.”

573.

“An interesting field of application for models consisting of an infinite number of interacting elements may exist in the recent theories of automata. A general model, considered by von Neumann and the author, would be of the following sort : Given is a infinite lattice or graph of points, each with a finite number of connections to certain of its ‘neighbors’. Each point is capable of a finite number of ‘states’. The states of the neighbors at time tn induce, in a specific manner, the state of the point at time tn+1. This rule of transition is fixed deterministically or, more generally, may involve partly ‘random’ decisions. One can define now closed finite subsystems to be called automata or organisms. They will be characterised by a periodic sequence of their states as function of time and by the following ‘spatial’ character : the state of the neighbors of the ‘organism’ has only a weak influence on the state of the elements of the organism ; the organism can, on the contrary, influence with full generality the states of the neighboring points which are not part of other organisms. One aim of the theory is to establish the existence of subsystems which are able to multiply, i.e., create in time other systems identical (‘congruent’) to themselves”, [Ulam, S., 1952], pp. 273-274.

574.

[Wolfram, S., 2002], p. 876.

575.

Voir [Burks, A. W., 1970], pp. 52-64 et [Heudin, J.-C., 1994], p. 41.

576.

[Goujon, P., 1994a], pp. 79 et 82.