Deuxième époque : la dispersion

Introduction. La reconnaissance de la « méthode des modèles »

Les travaux des historiens des sciences, comme ceux de Sharon E. Kingsland, Jean-Paul Deléage et Giorgio Israel 449 , ont bien montré que la notion de « modèle mathématique » en biologie se répand surtout, au cours des années 1920 et 1930, dans le secteur de l’écologie mathématique naissante 450 . Dans ce contexte, il s’agit d’une approche mathématique de problèmes qui se posent aux sciences de la vie à un niveau nettement populationnel. Dès lors, à cette échelle écologique, les individus sont relativement indifférenciés. On conçoit donc que ce type de modèles mathématiques, valant à l’échelle des populations, n’ait pas d’abord directement incité au développement de la « modélisation mathématique » des phénomènes intervenant au niveau de l’organisme individuel. Si l’on constate bien une inflation de l’expression « modèle mathématique » dans toutes les branches de la biologie après 1945, il serait ainsi faux d’en conclure à une simple extension de l’approche de l’écologie mathématique aux autres secteurs de la biologie. Il faut plutôt voir là la marque de l’influence considérable qu’ont pu avoir d’une part le développement des techniques pragmatiques de recherche opérationnelle 451 et d’analyse des systèmes pendant la guerre 452 et, d’autre part, l’émergence, conjointe mais distincte toutefois, de la cybernétique, notamment à partir des suggestions du physicien et mathématicien Norbert Wiener (1894-1964). Si la cybernétique a des racines elles-même complexes et amplement étudiées par ailleurs 453 , on a moins remarqué que c’est essentiellement elle qui a beaucoup fait pour populariser la notion proprement dite de « modèle mathématique » dans tous les secteurs de la biologie, notamment en physiologie et en neurophysiologie bien sûr, mais aussi, quoique plus indirectement, dans les approches théoriques de la morphogenèse de l’individu.

À tel point qu’il nous paraît légitime de parler d’une seconde naissance ou d’un second lieu de naissance pour la modélisation mathématique dans l’histoire des formalisations de la morphogenèse : la cybernétique. Non que la cybernétique ait véritablement fourni dès cette époque des scénarios formels permettant d’expliquer de façon acceptable la morphogenèse ; mais le recours conscient à autre chose qu’à une théorie, à quelque chose qui s’apparente à un construit substitutif d’ingénieur, du type d’une maquette, s’autorise bien de la suggestion de traiter conjointement et de la même manière tout type de contrôles, quel que soit le substrat physique qui l’incarne, tant au niveau des systèmes artificiels qu’au niveau des systèmes naturels ou même formels. L’habituel recours au modèle matériel au titre d’une maquette pour le calcul ou l’expérience vient donc s’augmenter là d’un recours, considéré comme étant de même valeur épistémique, au « modèle formel ».

Le caractère secondaire de cette distinction (modèle matériel / modèle formel) à l’intérieur d’une conception du modèle par ailleurs clairement unitaire, ce qui en fait la nouveauté épistémologique dans cet après-guerre, apparaît pour la première fois de manière très explicite dans un texte de la revue Philosophy of Science publié et co-signé par le physiologiste mexicain Arturo Rosenblueth (1900-1970) et par le mathématicien américain Norbert Wiener (1894-1964) en 1945. Cette unification en même temps que cette distinction sont cruciales dans le développement de l’esprit de la modélisation à l’époque si l’on songe qu’elles seront reprises souvent, et quasiment telles quelles, après adaptation il est vrai, par nombre de cybernéticiens d’abord, de médecins et de biologistes ensuite 454 . Rappelons donc ici rapidement en quoi cette unification et cette distinction doivent consister, selon ces deux fondateurs de la cybernétique. Nous serons alors mieux à même de saisir dans quel contexte général ou peut-être même à l’encontre de quelles propositions de modélisation, la simulation numérique prendra pour sa part son envol quelques années plus tard en recourant à une machine nouvelle, le computer.

Toute la thèse de Rosenblueth et Wiener repose d’abord sur une définition assez peu commune de l’abstraction 455  : « L’abstraction consiste dans le fait de remplacer la partie de l’univers que l’on considère par un modèle de structure similaire mais plus simple » 456 . À ce titre, selon eux, la science ne fait que manipuler des « abstractions » de ce genre dans le but soit de « comprendre », soit de « contrôler » les phénomènes qu’elle étudie. Ils poursuivent immédiatement : « Les modèles, formels ou intellectuels d’une part, matériels de l’autre, sont ainsi une nécessité centrale pour la procédure scientifique. » 457 Le terme de « modèle », on le voit, sert donc ici à désigner indifféremment une représentation mentale ou un objet matériellement existant. Ce terme sert en fait d’abord à montrer cette idée, chère à Wiener, et qu’il hérite de Mach via Karl Pearson et sa Grammaire de la science 458 , selon laquelle il n’y a pas de rupture de continuité entre la compréhension et le contrôle, entre la théorisation du monde et sa pratique.

Moyennant cette hypothèse, et c’est cela qu’il faut mettre en lumière pour notre propos, l’article de Rosenblueth et Wiener tend à disqualifier tout à fait l’idée de théorie : dans la science, il n’y a plus que des modèles plus ou moins abstraits. Or, cela est une thèse plus radicale encore que celle de Boltzmann (1902) 459 . Boltzmann admettait encore qu’il existe des théories sous forme de formulations très générales et abstraites. Il ne les identifiait pas tout à fait à des modèles mais à des analogies symboliques. La seule chose qu’il imposait toutefois, et là était le cœur de sa philosophie modéliste, c’était que l’on recourt toujours à des modèles ou à des images pour comprendre la théorie. Pour Rosenblueth et Wiener, l’idée de théorie générale n’a même plus de sens.

Or, c’est là sans doute que l’on peut sentir un des impacts de l’esprit du temps d’après-guerre dans la méthode de la science 460 . Le « théoricien » existe bien encore pour nos auteurs. Mais il est celui qui, n’étant qu’aux prises avec des « modèles formels », travaille seulement à les réduire les uns aux autres, à les élever ou à les abaisser dans leur degré d’abstraction, c’est-à-dire dans leur degré de simplification. Le théoricien ne contemple donc aucune réalité ultime dont il s’agirait de donner une image ou une formule synthétique. Au contraire, puisqu’il faut désormais renoncer à l’idée qu’il puisse exister un « modèle » abstrait unique et totalisant, dès lors qu’il est entendu que l’univers est doté d’une « complexité » qui dépassera à tout jamais la faculté de compréhension finie de l’esprit humain 461 , il ne peut jouer que sur le degré de simplification du modèle. Le général n’a plus de valeur en soi. L’idéal, le fondamental, n’est plus le simple. Au contraire. Un modèle abstrait devient une « structure théorique » 462 , c’est-à-dire dispose d’une valeur scientifique incontestable, quand il se concrétise c’est-à-dire lorsque l’on y ajoute les conditions particulières et complexes dans lesquelles le phénomène s’exprime. Les modèles abstraits sont donc forcément inexacts alors que l’idéal devient le concret. Le formel est un pis-aller. Il n’est qu’idéel. Il n’est pas le fond idéal du réel. Toute trace de pythagorisme est ici bannie. Selon Rosenblueth et Wiener, l’histoire de la science fonctionne donc selon un processus de concrétisation de ses modèles formels. Ils deviennent progressivement des « structures théoriques » fiables 463 .

Un grand nombre de scientifiques, dont von Neumann et surtout Turing, vont de près ou de loin souscrire à ce nouveau cahier des charges que la cybernétique fixe à la science 464 . La « modélisation mathématique » assumée comme non réaliste, partielle et simplificatrice va en effet de plus en plus devenir une procédure que l’on revendique en tant que telle et dont on ne craindra pas qu’elle soit fustigée. Comme nous allons le voir, Alan Turing a été l’un des premiers à employer ce vocable dans le contexte d’un travail théorique sur la morphogenèse. Ce travail sera doublement instructif pour nous dans la mesure où il y prône également le recours au tout récent computer. C’est bien également cet article qui le premier évoque une des nouvelles possibilités que l’ordinateur pourrait conférer à une formalisation de la morphogenèse. Tâchons maintenant d’en saisir le sens et la portée dans le cadre de notre question sur les rapports entre l’ordinateur et l’histoire des formalisations récentes de la morphogenèse. Nous verrons ensuite que Turing est loin d’avoir été le seul à faire un usage précoce de l’ordinateur pour des problèmes de formalisation et de calcul (les deux étant alors liés) de la morphogenèse.

Notes
449.

[Kingsland, S. E., 1985, 1995], [Deléage, J.-P., 1991, 1994] et [Israel, G., 1996].

450.

Dès 1924, dans ses travaux sur l’évolution irréversible des agrégats, Lotka s’était ainsi explicitement servi d’un « modèle » probabiliste comme illustration simplifiante d’une situation complexe. Il reprenait en fait le « modèle d’urne » à la mécanique statistique et, plus précisément, aux Leçons sur la théorie des gaz de Boltzmann. Cet emprunt était lui-même justifié par le fait qu’il concevait sa « Mécanique générale de l’évolution » comme se présentant sous la forme d’une « Mécanique statistique de systèmes d’organismes », [Lotka, 1927, 1956], p. 358. On peut donc trouver là un des liens les plus précoces entre la notion de « modèle » au sens de la mécanique statistique et celle qui se développera dans le secteur de la dynamique des populations. Voir [Lotka, 1927, 1956], pp. 30-31. À la page 360 du même ouvrage, pour résoudre des équations non traitables de manière analytique, Lotka en appelle même à l’usage de « modèles qui marchent » [« working models »] et qui se caractériseraient par le fait qu’ils imiteraient la lutte entre les espèces biologiques [« the biological warfare »] comme les jeux de guerre imitent les conflits armés entre nations.

451.

Avec cette nuance que la recherche opérationnelle s’est en fait beaucoup fondée sur la modélisation probabiliste, ce qui n’a pas peu fait pour l’expansion corrélative du « modèle statistique ». Mais, il est vrai qu’avec elle, le modèle statistique, comme le modèle formel de la cybernétique d’ailleurs, devient franchement synthétique et comparable en cela à une maquette et non plus nécessairement à un outil d’analyse de données.

452.

Nous partageons pleinement sur ce point le diagnostic de l’historienne des sciences et épistémologue Amy Dahan in [Dahan, A., 2003], p. 26. Voir également l’historique de la recherche opérationnelle publié par Florence N. Trefethen in [Closkey, J.F.Mc et Trefethen, F.N., 1954, 1957], pp. 7-20.

453.

Sur le rôle des conférences Macy, voir en particulier [Dupuy, J.-P., 1994, 1999], in extenso, et [Segal, J., 2003], pp. 143-235.

454.

Voir la distinction entre « modèles physiques » et « modèles dialectiques » en France à partir de [Couffignal, L., 1953], sa reprise explicite chez le médecin Jacques Sauvan in [Sauvan, UJ., 1966] puis chez le biologiste et biométricien Jean-Marie Legay in [Legay, J.-M., 1973a].

455.

L’épistémologie des modèles telle qu’elle se fait jour dans les travaux de Rosenblueth et Wiener a été analysée plus au long par Jean-Pierre Dupuy. Voir [Dupuy, J. P., 1994, 1999], pp. 34-39.

456.

“Abstraction consists in replacing the part of the universe under consideration by a model of similar but simpler structure”, [Rosenblueth, A. et Wiener, N., 1945], p. 316.

457.

“Models, formal or intellectual on the one hand, or material on the other, are thus a central necessity of scientific procedure”, [Rosenblueth, A. et Wiener, N., 1945], p. 316.

458.

Sur ce point, voir [Segal, J., 2003], pp. 162-166.

459.

Voir notre annexe A.

460.

Les sociologues Philippe Breton et Serge Proulx ont particulièrement confirmé, chez Norbert Wiener, la présence d’une telle tendance désabusée face à la faillite tant politique que scientifique des grandes solutions théoriques générales. Voir [Breton, P. et Proulx, S., 1989], pp. 209-222.

461.

C’est le terme même employé par [Rosenblueth, A. et Wiener, N., 1945], p. 320. On reconnaît là l’argument propre aux positivismes depuis Auguste Comte. Alors qu’Auguste Comte en tirait l’idée qu’il ne fallait plus parler de « causes » mais seulement de « lois », le néo-positivisme de la cybernétique en tire la conséquence plus pessimiste encore qu’il n’y a même plus de « lois » et qu’il ne faut chercher que des « modèles », ces derniers incarnant un compromis, jamais idéal donc, entre l’applicabilité (modèle concret) et la généralité (modèle abstrait).

462.

[Rosenblueth, A. et Wiener, N., 1945], p. 319.

463.

[Rosenblueth, A. et Wiener, N., 1945], p. 319.

464.

Amy Dahan rappelle ainsi que, selon von Neumann (in « Methods in the Physical Sciences », Works, VI, p. 491), « les sciences n’essaient pas d’expliquer, elles ne font que construire des modèles dont la seule justification est de fonctionner », [Dahan-Dalmedico, A., 2003],p. 26.