Premier usage : la résolution d’équations différentielles, d’équations de flux ou de modèles à compartiments

Un des premiers usages du calculateur numérique que l’on peut recenser est celui qui est intervenu dans les laboratoires qui avaient traditionnellement recours au calcul analogique (via une analogie mathématique) au moyen d’analyseurs différentiels. L’apparition de ces calculateurs analogiques était elle-même récente. Même s’il existait des projets pour des machines semblables dès les années 1920, et même si W. Thomson (Lord Kelvin) avait, en 1876, conçu un analyseur harmonique sur une base mécanique, c’est un ingénieur du MIT, Vannevar Bush, qui à partir de 1931, et sur une base électromécanique, mit au point un intégrateur analogique rapide et paramétrable de façon assez souple 671 . Les secteurs de la biologie qui ont été les principaux utilisateurs de cette technique ont été ceux dans lesquels des formulations mathématiques de type équations différentielles simultanées (de taux, de flux ou de suivi quantitatif de substances par des modèles à compartiments) étaient systématiquement traitées et en grand nombre 672 .

Les modèles à compartiments
À partir de la méthode expérimentale du marquage radioactif récemment mise en œuvre (1951) dans un contexte physiologique par C. W. Sheppard, alors chercheur à l’université de Memphis (Tennessee), il a été possible de suivre en temps réel la localisation des substances et la variation de leurs quantités dans les diverses unités fonctionnelles des organismes autrement difficilement accessibles. Cette technique s’apparentait alors manifestement à celles du marquage des animaux (bagues, etc.) 673 employées par ailleurs en dynamique des populations et écologie depuis les années 1920 674 . Les chercheurs dès lors vite conscients du caractère hautement générique de cette technique ont donné ensuite naissance à un procédé général de modélisation : la modélisation dite « par compartiments » fonctionnels. Il consiste d’abord à formaliser graphiquement (sous forme de ‘boîtes noires’ et de flèches) les divers flux existant entre différentes classes d’éléments 675 et ensuite à représenter formellement ces flux par des équations différentielles (le plus souvent linéaires) ou par un formalisme matriciel de changement d’états.
Significativement, c’est seulement à partir de 1969 que C. W. Sheppard lui-même passe à la simulation par ordinateur 676 de ces suivis de substances, notamment au moyen de processus stochastiques et de la méthode de Monte-Carlo 677 . Ce faisant, il revient à la première approche mathématique qui a été la sienne (en 1951) pour les processus de diffusion de substances marquées : l’approche par les formalismes des marches aléatoires et du mouvement brownien, formalismes qui étaient eux-mêmes venus de la physique. En 1969, la simulation numérique par la méthode de Monte-Carlo a donc clairement pour lui la fonction de « tester la théorie » agrégée, qui reste pour sa part exprimable dans le formalisme des compartiments 678 . Une telle simulation numérique 679 présente l’intérêt, dit-il, de nous donner un « aperçu intuitif éclairant » 680 sur la théorie. À la même époque, en France, alors même qu’on en fait grand cas, on ne cherche pourtant pas particulièrement à rapporter la modélisation par compartiment à ces techniques de simulation atomique constructive. La raison en est que l’aspect fonctionnel des micro-événements, au sens biologique et surtout physiologique, disparaît dans la simulation. Dans un esprit hérité de Prenant et Teissier, on y appréciera donc longtemps la méthode des compartiments comme une modélisation certes phénoménologique mais ayant en même temps la grande qualité de conserver le sens biologique des lois mésoscopiques qu’elle intègre 681 .

Ainsi, dans les simulations de systèmes biologiques ou écologiques faisant intervenir des équations différentielles couplées ou des boucles de contrôle pour des flux de tous ordres, les calculateurs analogiques, ou analyseurs différentiels, ont en fait concurrencé les calculateurs numériques assez longtemps, jusqu’à la fin des années 1960 682 . Auparavant, à partir de 1940, la pratique systématique d’analyseur différentiel était venue à la biologie essentiellement par les neurophysiologistes 683 mais aussi par les chimistes travaillant dans la biochimie ou dans la physiologie chimique comme Britton Chance par exemple 684 . L’expression de « simulation mathématique » y avait donc déjà cours au sens où l’analogie mathématique était directement exprimée par des modules électriques combinables et paramétrables à la main. Dans la biochimie, par exemple, le terme de « simulation » sera naturellement transmis et conservé pour désigner les approximations discrètes sur calculateur numérique des toujours mêmes modèles mathématiques continuistes 685 . Il est à noter que ce terme n’avait pas encore le sens plus strict qu’il gagnera au contact de la méthode de résolution stochastique de Monte-Carlo.

Cependant, spécifiquement en dynamique des populations, la naissance de modèles exprimant et traitant en temps discret et par récurrence les problèmes de flux de populations, a précédé de quelques années l’émergence du calculateur numérique 686 . Cette discipline en marge de la biologie et déjà fortement mathématisée s’est donc distinguée de ses voisines en passant assez naturellement, sous l’influence notamment des méthodes de la démographie humaine, d’une approche géométrique et continuiste à une approche algébrique et matricielle 687 . Cette inflexion, juste antérieure à l’apparition des calculateurs numériques, vers une formalisation algébrique a beaucoup fait ensuite pour fixer assez tôt l’emploi de ces machines dans cette discipline car le traitement algébrique et par récurrence s’exprime très simplement au moyen de programmes informatiques. Il s’agit là en quelque sorte d’une rencontre heureuse entre la suggestion conceptuelle de recourir à de nouvelles mathématiques et l’apparition d’une nouvelle technologie permettant de les traiter commodément, l’une renforçant l’autre. L’ajout du formalisme stochastique des processus de ramification à l’approche algébrisée a contribué à achever ce processus de « numérisation » des calculateurs en génétique des populations car, dans ce cadre-là, il n’y a pratiquement plus que la simulation de type Monte-Carlo pour effectuer les calculs 688 .

Ce passage au stochastique en dynamique des populations était lui aussi antérieur à la mise à disposition des calculateurs numériques. Les processus stochastiques de type Galton-Watson ont en effet connu un regain d’intérêt au début des années 1940, d’une part à cause de l’analogie nouvellement perceptible entre la croissance des familles et les réactions nucléaires en chaîne, d’autre part du fait que la théorie des probabilités avait récemment trouvé un fondement mathématique plus solide et donc d’apparence plus fiable, dans les travaux de Kolmogorov (1933), notamment 689 . Ce n’est donc pas totalement un hasard si les calculateurs numériques ont trouvé à s’employer efficacement dans des modèles stochastiques en biologie, et ont ensuite travaillé à y renforcer la présence de ce formalisme, puisqu’un des premiers usages de ces machines en physique a consisté à simuler précisément des processus de ramifications aléatoires de type réactions nucléaires en chaîne.

Toujours est-il que le double passage à un formalisme discret et stochastique impose inévitablement à cette discipline de s’interroger, comme auparavant la physique nucléaire, sur la signification et sur la valeur de preuve du calcul par simulation numérique. Et c’est là glisser insensiblement vers une autre interprétation du calcul sur ordinateur. C’est notamment rejoindre les questions épistémologiques que le quatrième type d’usage du calculateur numérique va clairement poser : que fait-on quand on formalise ainsi ? Représente-t-on les phénomènes biologiques ou écologiques ? Ou calcule-t-on simplement ? Nous y reviendrons plus bas. Quoi qu’il en soit, de leur côté, et de façon a priori assez surprenante, mais pour d’autres raisons, tous les biophysiciens n’ont pas été tout de suite convaincus par l’idée même d’un passage naturel du calcul analogique au calcul numérique.

La figure du biophysicien F. Heinmetz peut être ici brièvement évoquée pour illustrer l’inertie voire la résistance qui a pu parfois accompagner ce type d’emploi des calculateurs. Car elle nous montre un biophysicien au départ fortement attaché à la modélisation analogique et ce, jusqu’à la fin des années 1960. Titulaire, en 1933, du diplôme d’ingénierie électrique de l’Université de Tallin, en Estonie, puis d’un doctorat de biophysique de l’Université de Pennsylvanie, en 1946, Heinmets devient, en 1958, le chef du groupe de biophysique des Laboratoires Natick de l’armée américaine. À ce titre, pendant une dizaine d’années, il travaille à la modélisation des processus de croissance cellulaire à un niveau moléculaire. Ces travaux recoupent alors un certain nombre des préoccupations formelles de François Jacob et Jacques Monod sur les processus d’activation et d’inhibition de la synthèse protéique. Or, un peu plus tard, alors qu’on est en 1969, pour modéliser ses 19 équations différentielles simultanées 690 , il privilégie toujours l’approche analogique par analyseur différentiel. Et, alors même qu’il voit bien les problèmes d’instabilité que pose la non-linéarité de son modèle, il propose, pour les résoudre, une stratégie d’intervention directe dans le modèle analogique au moyen d’un forçage momentané de la valeur de certaines variables. Ces dernières sont en effet contrôlables car elles sont accessibles en temps réel sous forme de valeurs électriques dans le réseau de l’analyseur différentiel. Selon Heinmets, en fait, il s’agit ainsi d’inciter le système électrique à modéliser réellement un « système fonctionnel » 691 . Car s’il entre dans un « état désorganisé » 692 , le « système-modèle » ne remplit plus son office qui est de modéliser un système biologique.

Si l’on y regarde de plus près, et c’est cela qui nous intéresse ici, cette stratégie de règlement du problème de l’instabilité, sans doute curieuse d’un point de vue actuel, s’explique à l’époque assez logiquement par le statut épistémologique qu’Heinmets confère par ailleurs et en général à la modélisation mathématique en biologie. Selon lui en effet, dans un passé récent, les méthodologies biochimiques et physiologiques se sont davantage penchées sur les processus moléculaires ou les mécanismes fonctionnels spécifiques 693 . Ce qui avait pour conséquence de limiter l’étude à quelques interactions seulement. Les connaissances acquises n’étaient certes pas sans valeur, mais elles étaient de portée fatalement limitée. La modélisation, quant à elle, répondrait donc aujourd’hui, en 1969, au nécessaire besoin d’« intégrer de l’information provenant de divers sous-systèmes » 694 pour gagner une vision plus juste du « comportement fonctionnel propre au système total » 695 . C’est donc pour cette raison principale que cette nouvelle méthodologie, la modélisation sous forme de construction de « systèmes-modèles », aurait été développée en biologie. Mais, selon Heinmets, il apparaît que cette méthodologie doit être surveillée. Car ce n’est pas n’importe quelles unités que l’on doit intégrer dans un « système-modèle » au titre de « sous-modèles ». Ces sous-modèles doivent correspondre chacun à des « sous-systèmes » également fonctionnels d’un point de vue biologique. Il doivent coïncider chacun avec une « unité fonctionnelle » faute de quoi les propriétés qui seront exhibées dans le « système-modèle » total seront « dépourvues de sens » 696 . Or c’est bien là ce qui justifie en dernière analyse l’autorisation surprenante qu’Heinmets se donne d’intervenir dans le modèle analogique, lorsque ce dernier menace de conduire à un « état désorganisé ». Le but de la modélisation étant, selon lui, l’interprétation de l’intégration des différents sous-modèles, afin qu’il y ait une réelle interprétation globale, il faut que les sous-modèles modélisent raisonnablement, si l’on peut dire, il faut donc qu’ils modélisent des activités fonctionnelles gardant toujours en elles-mêmes un sens biologique 697 .

Derrière ce postulat méthodologique, il y a la croyance que le sens ne peut venir de l’intégration du non-sens. C’est donc une limitation fondamentale, valant pour toute espèce de formalisation en biologie. Dans cette perspective épistémologique, on comprend mieux la réticence qui a d’abord été la sienne, comme d’un certain nombre d’autres physiologistes, face aux propositions contemporaines, déjà bien avancées, des calculateurs numériques : dans un calculateur numérique, le traitement discrétisé que subit tout calcul (même analytique) neutralise et égalise impitoyablement chaque étape du calcul. La discrétisation semble ainsi faire violence à ce que l’on pourrait appeler le postulat de la conservation de la signification au travers même du découpage du modèle intégrateur en unités modélisatrices. Le numérique, par le pas à pas de son traitement, rend égales donc également insignifiantes les étapes que pourtant il intègre bien les unes aux autres. Cette déperdition de signification risque bien d’être sans retour pour F. Heinmets. Or, c’est un risque qu’il ne semble pas vouloir prendre, même en 1969.

Il admet pourtant que sa solution est contestable et que l’issue devrait en être dans l’amélioration des calculateurs 698 mais à aucun moment il n’envisage de se porter explicitement vers la solution numérique alors même qu’il publie et connaît les travaux d’autres biophysiciens qui l’utilisent déjà. Ce point de vue qui consiste à vouloir contraindre le modèle à conserver constamment une analogie porteuse de « significations fonctionnelles », donc biologiques, à toute échelle n’a bien sûr pas été unanime et c’est bien souvent d’autres biophysiciens qui se sont lancés le défi du passage direct au numérique.

En effet, parmi les biologistes qui recourent tout de même assez vite aux calculateurs numériques, ce sont souvent ces mêmes chercheurs ou ingénieurs déjà aguerris aux techniques de simulation analogique, comme Britton Chance par exemple ou son collègue David Garfinkel. Cela leur est conceptuellement assez aisé dans la mesure où ils possèdent souvent des compétences en physique et en électronique. Certains de ces biophysiciens et physiologistes sont ainsi les premiers à passer aux calculateurs numériques. Toutefois, au-delà même des préférences épistémologiques du type de celles de Heinmets, ce choix de passer de l’analogique au numérique est généralement lent et ne fait pas immédiatement l’unanimité 699 parce que les obstacles de principe paraissent longtemps très éloignés de l’utilisateur physiologiste au regard des avantages pratiques immédiats que présente l’analogique, surtout dans le cas de problèmes formalisés par des équations différentielles simultanées. Mais un des arguments qui finit souvent par prévaloir, notamment en biochimie, est bien essentiellement pragmatique : à partir du moment où les formulations des systèmes étudiés deviennent plus complexes (en nombre de paramètres, de variables et de boucles) et que le traitement de telles formulations dépasse la taille physique d’un « calculateur analogique raisonnablement dimensionné » 700 , les chercheurs optent souvent pour le numérique. Ils font ce choix dans la mesure également où des calculateurs plus accessibles et plus aisés d’utilisation voient le jour sur le marché, au début des années 1960.

La neurophysiologie, pour sa part et comme on le sait par ailleurs 701 , est très tôt bouleversée, non pas tant par l’usage direct des calculateurs numériques mais par les modèles épistémologiques, les paradigmes que ces calculateurs représentent en eux-mêmes 702 . Les calculateurs numériques continuent ainsi de valoir en eux-mêmes comme modèles (puisqu’ils avaient été eux-mêmes sciemment conçus sur le modèle neurologique supposé du cerveau) en pénétrant assez largement, mais au niveau conceptuel et théorique, dans les problématiques neurophysiologiques.

Dans ce cadre-là, la biochimie, la physiologie du métabolisme, l’écologie ou la dynamique des populations, considérant un vivant ou une population de vivants comme « l’usine chimique la plus complexe » 703 , ou comme l’analogue d’un « système cybernétique » 704 stationnaire mais ouvert car soumis à des flux entrants et sortants, elles peuvent par la suite tout naturellement s’adjoindre les techniques de formalisation mathématique et de résolution de la recherche opérationnelle, déjà éprouvées auparavant dans la logistique et les sciences de la conception 705 . Ainsi en est-il par exemple des techniques mathématiques de recherches d’optimum par un algorithme pas à pas 706 .

En outre, le fait qu’au début des années 1960, des biologistes et des écologues eux-mêmes font désormais effectuer le calcul de ce type de problèmes de flux ou de réseaux trophiques par des calculateurs numériques, et non plus seulement les économistes, va inciter les chercheurs universitaires ou les constructeurs à mieux adapter les langages évolués comme FORTRAN ou ALGOL, trop tournés vers les formulations arithmétiques et logiques, vers des langages dits de simulation comme GPSS 707 , SIMSCRIPT 708 ou SIMULA 709 , ou encore DYNAMO 710 (en sciences économiques et de gestion) davantage tournés vers le traitement direct et intuitif des flux, des boucles et des stocks 711 . Remarquons ici que, dans cette évolution, il y a une très intéressante inertie des formalismes qui s’exprime. Car, au delà de la rénovation des outils de calcul, dans cette volonté durable de faire simuler par le calculateur numérique un simple calculateur analogique, mais sur-dimensionné, les biologistes, comme les économistes ou les gestionnaires, expriment une remarquable constance dans leur souci de formaliser. Les écologues et les physiologistes, comme les économistes, ont donc plutôt été d’abord animés d’un réflexe conservateur par rapport à la remise en question des formalismes que permettait pourtant le développement du calculateur numérique.

Toutefois, comme on l’a vu en génétique des populations, le traitement par calculateur numérique des équations différentielles non solubles analytiquement peut aussi inciter à employer la méthode récemment mise en œuvre en physique nucléaire avec les travaux de von Neumann, Metropolis et Ulam : la méthode de Monte-Carlo 712 . C’est là rejoindre un des nouveaux formalismes de la physique entre-temps très vite repris par la recherche opérationnelle 713 . Or, c’est une méthode ambivalente : elle peut être traitée comme une pure technique mathématique de résolution approchée, comme les biologistes, les écologues ou les généticiens 714 la considéreront d’abord en conformité avec leur conception des formalismes, ou comme un moyen de modéliser de manière réaliste, c’est-à-dire en simulant les phénomènes globaux à partir des micro-phénomènes. C’est la tendance à suivre jusqu’au bout cette deuxième interprétation que nous évoquerons plus bas au titre du quatrième type d’usage.

Notes
671.

[Pratt, V., 1987, 1995], pp. 160-162. Pour une brève restitution des travaux de Bush et une analyse de son point de vue selon lequel tout problème de calcul doit être pensé à l’image d’un problème d’instrumentation, voir [Ramunni, G., 1989], pp. 30-32.

672.

[Ledley, R. S., 1965], p. 288.

673.

[Legay, J.-M., 1973b], p. 136.

674.

Voir le chapitre de A. Tétry sur l’écologie in [Taton, R., 1964, 1995], p. 683.

675.

L’« élément circulant » peut être de toute nature comme le remarque [Legay, J.-M., 1973b], pp. 122-123 : animal circulant entre divers lieux, cellules entre divers organes, hormones entre divers tissus, ion entre divers lieux d’une même cellule, atome entre divers molécules. On voit que cette technique met l’accent sur la généralité à toute échelle des phénomènes de flux et de « circulation » au delà-même des sciences de la vie et même des sciences de la nature car « l’élément circulant pourrait être une bille ou un automate quelconque », ibid., p. 123.

676.

Sur un IBM 1620, [Sheppard, C. W., 1969], p. s15.

677.

[Sheppard, C. W., 1969], p. s14.

678.

[Sheppard, C. W., 1969], p. s14.

679.

Ou « échantillonnage de modèle » selon l’expression qu’il reprend aux statisticiens cités eux-mêmes par [Marshall, A. W., 1954].

680.

Traduction que nous proposons pour l’intraduisible ‘insight’ : “As Hamming has asserted ‘the purpose of computing is insight’ and our progress in this direction is often aided by the simulation of stochastic processes by the use of high-speed stored-program digital computers”, [Sheppard, C. W., 1969], p. s14. On reconnaît là un travers épistémologique qui pourrait en effet s’apparenter à une constante anglo-saxonne : ne pas se contenter d’abstraire mathématiquement, mais tâcher aussi de se représenter quasi-visuellement ce qui se passe dans le modèle phénoménologique ou abstractif, en gagner une sorte d’intuition constructive et donc souvent, il est vrai, mécaniste. Ce souci paraît absent des travaux français parce qu’ils semblent davantage sensibles à l’urgence de contrôler constamment le modèle à tous les niveaux avec des concepts biologiques déjà existants et reconnus par ailleurs.

681.

[Cheruy, A., Gautier, C. et Pavé, A., 1980], p. 103.

682.

Même si elle représente une tentative techniquement et épistémologiquement très significative de trouver un compromis entre la précision du numérique et la vitesse de l’analogique, nous ne nous étendrons pas ici sur la solution des calculateurs hybrides telle qu’elle a pu exister un temps et être mise en œuvre dans les années 1960. Selon nous, elle n’a pas joué de rôle absolument décisif dans l’histoire des formalismes intervenant dans les modélisations mathématiques. En effet, les propositions formelles tant du côté analogique que du côté numérique étaient de part et d’autres définies déjà durablement cela même avant l’intervention de cette technologie hybride. De plus, les langages de programmation commercialement disponibles n’ont pas suivi la complexification qu’imposait une telle hybridation.

683.

Depuis les célèbres travaux d’A. L. Hodgkin et A. F. Huxley (1952), la neurophysiologie a confirmé la pertinence de ses très anciens modèles électriques en les étendant à l’électronique. Voir [Cole, K. S., 1955], pp. 152-155. En 1965, W. Reichardt du Max-Planck Institut für Biologie propose par exemple un modèle de type électronique analogique pour un mouvement optomoteur de perception visuelle qu’il a proposé au milieu des années 1950 et publié dans la revue Kybernetik. Voir [Reichardt, W., 1965], p. 361.

684.

[Garfinkel, D., 1965], p. 112.

685.

Voir par exemple l’usage indifférent que David Garfinkel fait du terme « simulation » pour désigner le calcul d’un modèle mathématique différentiel tantôt sur calculateur analogique tantôt sur calculateur numérique, [Garfinkel, D., 1965], passim.

686.

Avec les travaux de P. H. Leslie et D. G. Kendall. Voir l’article princeps : [Leslie, P. H., 1945]. Pour les détails de la chronologie, voir [Legay, J.-M., 1973b] et surtout [Lebreton, J.-D., 1973].

687.

Pour des raisons indépendantes du développement des calculateurs numériques. P. H. Leslie voulait en effet suivre non seulement les effectifs mais la répartition en classe d’âges de ses populations. Il lui a donc fallu descendre quasiment au niveau des événements individuels par tranches d’âge pour représenter ensuite les évolutions en parallèle (toujours selon un modèle linéaire mais avec une expression cette fois-ci algébrique de type récurrence matricielle) de ces différentes populations. Le formalisme matriciel était en fait né auparavant, dans les modèles de démographie humaine, [Lebreton, J.-D., 1973], pp. 94 et 100. Voir [Leslie, P. H., 1945]. Par la suite, Leslie a également eu l’idée de rendre ces modèles matriciels stochastiques suivant en cela le modèle de Yule (1924). Dans ces conditions, c’était inévitablement rejoindre le formalisme naissant des processus de ramification. Voir [Leslie, P. H., 1958], [Leslie, P. H. et Gower, J. C., 1958], [Lebreton, J.-D., 1973], p. 97 et [Harris, T., 1963, 1969].

688.

Voir [Lebreton, J.-D., 1973], p. 103 : « Outre des résultats asymptotiques assez abondants, les modèles multitypes en temps discret ont pour avantage un formalisme simple, qui facilite en particulier leur mise en œuvre numérique. » De façon très significative, J.-D. Lebreton rappelle toutefois qu’il n’existe pas d’accord total entre les généticiens des populations au sujet de la signification de cette algébrisation des formalismes : « Il s’agit d’analogues discrets du modèle intégral, et certains auteurs (J.-P. Nakache 1969 [Différentes méthodes de résolution de l’équation fondamentale de Lotka, Publication de l’ISUP, 18, 149-171]) n’ont même voulu y voir qu’une méthode de résolution de l’équation de Lotka. Valorisés par leur commodité d’emploi, ces modèles matriciels n’en ont pas moins vu le jour indépendamment de la formulation intégrale et se sont développés à partir des travaux de Bernardelli (1941), Lewis (1942), et surtout Leslie (1945, 1948) », [Lebreton, J.-D., 1973], pp. 94-95.

689.

Voir [Harris, T. E., 1963, 1969], pp. 2 et 263.

690.

[Heinmets, F., 1969], p. 162, tableau 3.

691.

”a functional model-system”, [Heinmets, F., 1969], p. 164.

692.

“disorganized state”, [Heinmets, F., 1969], p. 164.

693.

[Heinmets, F., 1969], préface, p. v.

694.

“In order to understand the functional behavior of the total system, the integration of information from various subsystem is essential”, [Heinmets, F., 1969], préface, p. v.

695.

[Heinmets, F., 1969], préface, p. v.

696.

“For this purpose model-systems have to be developed. These must contain sufficient number of functional units and reveal interactions between these units so that functionally meaningful properties are exhibited by the model-system”, [Heinmets, F., 1969], préface, p. v.

697.

Cet argument n’est pas sans rappeler celui que l’on retrouvera quatre ans plus tard sous la plume du biométricien français Jean-Marie Legay, mais, il est vrai, sous une forme déjà bien moins restrictive, notamment quant au modèle théorique [Legay, J.-M., 1973a], pp. 61-63. Il y a en effet selon Legay deux façons de construire un modèle : soit de haut en bas (modélisation descendante ou top-down disent les anglo-saxons), de la théorie à la situation concrète, soit de bas en haut (modélisation ascendante ou bottom-up), de la situation concrète à la théorie. Pour le premier cas, s’il faut reconnaître le droit du mathématicien à s’affranchir un certain temps de tout souci de réalisme, il faut tout de même veiller à ce que le modèle théorique puisse, au final, posséder une interprétation concrète, c’est-à-dire un sens biologique. Pour le deuxième cas (et c’est là que la parenté avec l’argument de Heinmets est la plus forte), partant d’observations concrètes singulières et donc a priori nécessairement signifiantes d’un point de vue biologique (ce qui peut justement être contesté), il faut veiller à ce que le « construit » obtenu à partir de l’intégration de ces situations concrètes particulières ait lui-même une signification biologique : « Ce n’est pas parce qu’on construit à partir d’éléments définis dans la pratique, ayant un sens dans la pratique, qu’on est sûr d’obtenir un modèle qui ait lui-même un sens. Il faut aussi que les relations appliquées aux éléments choisis aient elles-mêmes un sens dans la pratique. Sinon les modèles construits pourraient correspondre à une situation expérimentale inexistante ou inaccessible », ibid., p. 63. Legay insiste donc lui aussi sur ce principe de la conservation de la signification biologique à travers les différentes étapes du modèle mais en s’inquiétant davantage, en ce qui le concerne, pour le sens des relations formelles que l’on choisit de faire intervenir entre les sous-modèles signifiants.

698.

“As a matter of fact, in a system containing so many rate constants and variables, the most probable state is a disorganized state. Only by selecting specific rate constant values and initial conditions is it possible to obtain a functional system […] Consequently, quantitative study of the biological systems is extremely difficult and new computer techniques must be developed”, [Heinmets, F., 1969], p. 164.

699.

Sur cette question qui dépasse le seul cadre de la biologie mathématique, voir [Rammuni, G., 1989], pp. 26-33. Malgré la supériorité de principe du numérique sur l’analogique, démontrée très tôt par Shannon (en 1941 pour la vitesse limitée du calcul analogique, voir ibid., p. 33) et par von Neumann (en 1951, pour la précision limitée du calcul analogique, voir [Neumann (von), J., 1948, 1951, 1996], pp. 72-73), tout au long des années 1960, un grand nombre d’exemplaires de la revue américaine Simulation vont périodiquement se faire l’écho de ce débat. En 1969, M. Pring, un biochimiste du Balliol College d’Oxford, fait encore une comparaison détaillée des deux types de calculateurs [Pring, M., 1969], p. 88.

700.

”reasonably sized analog computers”, [Garfinkel, D., 1965], p. 112.

701.

Cette histoire est assez bien connue. Elle a en effet très tôt intéressé, pour des raisons philosophiques qu’il serait intéressant d’élucider, aussi bien les historiens que les philosophes des sciences. Voir par exemple [Gardner, H, 1985, 1993] et [Dupuy, J.-P., 1994, 1999]. À ce domaine-là, on peut même rattacher quelques uns des travaux de Canguilhem dont [Canguilhem, G., 1955]. Voir également les diverses généalogies existantes pour la neurobiologie ou les sciences cognitives : [Vignaux, G., 1991], [Andler, D., 1992], [Pélissier, A. et Tête, A., 1995], mais aussi bien sûr [Neumann (von), J., 1958, 1996] et, en particulier, l’historique de Dominique Pignon, publié dans ce dernier ouvrage : « Von Neumann et les machines molles », pp. 83-124.

702.

Notamment à partir de la parution en 1943 de l’article de McCulloch et Pitts [McCulloch, W. S. and Pitts, W., 1943] et des conférences Macy.

703.

[Dantzig, G. B., 1965], p. 33.

704.

[Grodins, F. S., 1965], p. 135.

705.

[Dantzig, G. B., 1965], p. 39.

706.

[Dantzig, G. B., 1965], p. 41.

707.

Le General Purpose System Simulation language est créé par IBM pour les 7090 en 1961. Voir [Naylor, T. H., Balintfy, J. L., Burdick, D. S. and Chu, K., 1966], p. 308.

708.

SIMSCRIPT est créé par la Rand Corporation en 1962, [Naylor, T. H., Balintfy, J. L., Burdick, D. S. and Chu, K., 1966], p. 308.

709.

SIMULA est apparu en 1964, comme une émanation d’ALGOL, [Lévènez, E., 1999], p. 2.

710.

DYNAMO est créé en 1963, au MIT, par l’équipe de Jay Forrester, [Naylor, T. H., Balintfy, J. L., Burdick, D. S. and Chu, K., 1966], p. 309.

711.

Pour l’historique circonstancié et une comparaison de GPSS, SIMSCRIPT et DYNAMO, voir [Naylor, T. H., Balintfy, J. L., Burdick, D. S. and Chu, K., 1966], chapitre 7, pp. 239-309.

712.

Pour un exemple d’une telle mise en œuvre dans le cas d’un transport cinétique d’électron dans la mitochondrie, voir [Pring, M., 1969], pp. 79-85. Pour la restitution historique détaillée de l’émergence de cette méthode en physique nucléaire, voir [Galison, P., 1996] et [Galison, P., 1997].

713.

Voir [Naylor, T. H., Balintfy, J. L., Burdick, D. S. and Chu, K., 1966], chapitres 3 et 4. Ces chapitres sont consacrés aux méthodes de résolution de modèles mathématiques par variables aléatoires.

714.

L’historien des sciences M. R. Dietrich a étudié le revirement significatif du généticien Kimura à ce sujet. Voir [Dietrich, M. R., 1996]. La méthode de Monte-Carlo est d’abord conçue par Kimura comme une méthode d’approximation puis comme un modèle plus réaliste que le modèle continuiste des gènes.