a. Les simulations Monte-Carlo

La simulation Monte-Carlo s’est développée dans le cadre du laboratoire de Los Alamos 1425 . Le problème posé originellement est une question d’évaluation des propriétés d’un processus de diffusion de neutrons, issus d’un réacteur nucléaire par exemple. Le processus est trop complexe pour être évalué précisément dans son ensemble. La méthode, imaginée d’abord par Ulam en 1946, puis perfectionnée avec Von Neumann et Metropolis, consiste à réaliser un "modèle statistique" du phénomène physique, combinant des "processus stochastiques et déterministes" 1426 . L’intention 1427 est de calculer le cheminement d’une particule selon un processus simplifié : l’"histoire" d’une particule est une chaîne d’évènements, où à chaque étape, la suite de l’"histoire" est tirée au hasard selon une loi connue. En simulant plusieurs parcours, on obtient une idée statistique du comportement dans son ensemble. Les premiers calculs, pour une réaction en chaîne, sont réalisés par Nicolas Metropolis 1428 en 1947, sur l’ENIAC, une des toutes premières machines à calculer électroniques, suffisamment rapide. Ce procédé deviendra la méthode de Monte-Carlo, en 1949 1429 , et sera appliqué à plusieurs types de problèmes, de la physique atomique aux calculs sur les équations différentielles.

La théorie ergodique représente un fond culturel 1430 et intervient à deux niveaux dans la méthode : pour la justification mathématique et la production de processus aléatoires. Le principe de la justification, qui repose sur des combinaisons de processus probabilistes et déterministes 1431 , est le "Random ergodic theorem" 1432 démontré par Ulam et Von Neumann.

La question de la génération d’un processus aléatoire est plus problématique. Von Neumann privilégiait une approche arithmétique, c’est-à-dire la recherche de fonctions simples, à itérer pour donner des suites de nombres aléatoires 1433 . En 1947, Von Neumann et Ulam prennent un exemple en particulier : l’itération de la fonction f(x)=4.x(1-x), dont on peut ensuite tirer des simulateurs d’aléatoire, selon des distributions de probabilité données. C’est la même itération, la fonction logistique, qui fera l’objet de tant d’attention pour ses propriétés dites chaotiques à partir de 1975.

Les mathématiques investies dans les simulations imaginées sont d’abord des processus probabilistes, mais qui trouvent bon nombre de leurs applications dans des mathématiques plus "déterministes". Ulam a conçu la méthode de calcul d’intégrales multiples. En 1948, Fermi, Ulam et Von Neumann ont réalisé des estimations des valeurs propres de l’équation de Schrödinger 1434 . D’après Aspray, le travail sur les méthodes Monte-Carlo a intéressé Von Neumann aux propriétés de l’aléatoire : il calculait les décimales de π afin de déterminer leurs déviations statistiques par rapport à un phénomène purement aléatoire 1435 .

Les méthodes Monte-Carlo se développent donc au croisement de la simulation numérique et de la théorie ergodique, et vont susciter chez Ulam la recherche des propriétés ergodiques des transformations, et plus généralement leur comportement asymptotique. Dans l’exploitation des possibilités offertes par l’ordinateur, la présence de Von Neumann est importante, car il réfléchit depuis 1945 à la conception des machines et à leur utilisation pour ses recherches mathématiques. Cela influence Ulam, qui produit par la suite une réflexion, un discours sur les "expériences de mathématiques", inspiré par les idées de Von Neumann, mais qu’il sait adapter au public des mathématiciens.

Notes
1425.

Rappelons qu’Ulam a participé aux deux projets de constructions d’armes atomiques, le projet Manhattan et la bombe H, et travaille régulièrement à Los Alamos, où se concentre la recherche en la matière.

1426.

[ULAM, S., VON NEUMANN, J., 1947].

1427.

L’idée serait venue à Ulam, lors d’une convalescence, en jouant au jeu de patience. Se posant la question de la probabilité de réussite du jeu en général, il a pensé qu’il était possible de s’en donner une idée en jouant un certain nombre de partie et en réalisant une statistique (la proportion de succès en l’occurrence). Lors d’un passage de Von Neumann à Los Alamos en 1946, il lui a transmis cette idée de simulation statistique, qui les a conduit à développer une méthode adéquate et des procédures réalisables sur les machines électroniques. Plusieurs récits existent, par Ulam lui-même [ULAM, S., 1976], p. 196-200, par Metropolis (dans [COOPER, N.G., ECKHARDT, R., SHERA, N., 1989], p.125-130) et [ASPRAY, W., 1990], p. 111.

1428.

[ASPRAY, W., 1990], p. 112

1429.

[METROPOLIS, N., ULAM, S., 1949]. Metropolis a donné le nom de "Monte-Carlo" à ce procédé de simulation.

1430.

Rappelons que Von Neumann a produit le premier "théorème ergodique" en 1931, et Ulam a proposé un début de classification, avec Oxtoby, en 1941. Nous renvoyons au chapitre 7, page 451 (paragraphe sur les théorèmes ergodiques) et page 466 en particulier.

1431.

Probabiliste ou déterministe, selon Ulam, c’est une affaire d’interprétation, et non pas de méthode mathématique en elle-même. Ulam cite un exemple expliquant cette facilité à les combiner : en prenant l’ensemble des nombres réels, dans leur décomposition binaire, et la transformation T, qui consiste à décaler toutes les décompositions d’un cran, la loi des grands nombres et le théorème ergodique de Birkhoff donnent le même résultat. Comme le rappelle Ulam, cela a déjà été constaté par Doob, Hopf et Khinchine, lequel avait donné une "version probabiliste" au théorème de Birkhoff (Cf. chapitre 7, p. 464). Ces explications proviennent de l’exposé d’Ulam au congrès des mathématiciens de 1950 ([ULAM, S., 1974], p. 266).

1432.

[VON NEUMANN, J., ULAM, S., 1947]. La généralisation proposée par Ulam et Von Neumann est de considérer non plus l’itération d’une seule transformation, comme c’est le cas pour le théorème ergodique de Birkhoff, mais une itération pour laquelle, à chaque étape, la transformation est choisie au hasard dans un ensemble donné de transformations. Voir [ULAM, S, 1974], p. 266-7.

1433.

Une autre approche relève davantage de la physique, comme par exemple l’enregistrement d’un processus physique aléatoire (un peu comme un compteur Geiger). Mais des difficultés pratiques émaillent l’utilisation d’un tel procédé. [ASPRAY, W., 1990], p. 113.

1434.

[ASPRAY, W., 1990], p. 112, (pour la méthode d’Ulam voir : ibid., note 57, p. 289).

1435.

Au point de calculer 2000 décimales de π ou de e, sur l’ENIAC : [ASPRAY, W., 1990], p. 114.