Bilan sur les premières simulations de la morphogenèse

Un certain nombre d’enseignements peuvent être tirés de cette triple naissance de la représentation formelle de la morphogenèse sur ordinateur (triple si l’on accepte tout de même de faire figurer le modèle de Turing dans cette liste). Tout d’abord, ces premières simulations de la morphogenèse du vivant sont toutes le fait de mathématiciens spécialistes du fonctionnement et des premiers usages de l’ordinateur. Cette naissance a pu intervenir très tôt après la mise à disposition de ces nouvelles machines, et presque dans le même berceau. De plus, aucun des trois protagonistes de cette histoire n’a attendu d’être sollicité par une demande extérieure pour proposer d’étendre son usage de la nouvelle machine au traitement de la morphogenèse. Cela confirme bien l’idée que l’ordinateur, dès son émergence, comble assez immédiatement et assez systématiquement (car à trois reprises dans ces naissances quasi simultanées) une lacune qui, par ailleurs, devait donc être depuis longtemps latente. Car pour que certains des scientifiques les moins avertis en biologie, en embryologie ou en botanique s’aventurent à suggérer de nouvelles formalisations dans ces problématiques, il faut qu’il y ait là une espèce de savoir commun, très peu technique donc, au sujet d’un problème persistant. Ce savoir commun, reconnu et assez facilement reconnaissable est précisément celui d’une série de difficultés qui commencent à apparaître clairement dans les tentatives de représentation formalisée de la morphogenèse : l’hétérogénéité, la spatialité et un certain caractère aléatoire. On est donc là devant un cas où une innovation instrumentale et technologique « débloque » en quelque sorte une situation de statu quo et précipite l’advenue de propositions de solution.

Pourtant, ce déblocage ne se produit pas uniformément. Il est très instructif de constater que les usages de l’ordinateur pour représenter la morphogenèse naissent en ordre dispersé. C’est la raison pour laquelle on ne peut parler véritablement d’une découverte ou d’une proposition réellement simultanée. Chacun des trois auteurs choisit de privilégier un aspect particulier du phénomène de morphogenèse. En ce sens, ces premières simulations s’apparentent manifestement à la « méthode des modèles » alors en plein essor en biologie et dans les sciences de l’environnement, avec la confirmation et le blanc-seing qui viennent de lui être donnés par ailleurs, par la pensée cybernétique. On doit même dire qu’elles montrent avec force comment l’ordinateur peut amplifier cette nouvelle approche épistémologique qui promeut la diversité formelle en lui donnant une assise encore plus large, c’est-à-dire en rendant manipulables des formalismes jusque là jugés inintéressants ou peu commodes, notamment pour des raisons de difficultés computationnelles.

Ainsi, l’approche de Turing est-elle la plus proche des « modèles » au sens strict, ceux qui sont issus des sciences exactes comme la physique, donc de la tradition ouverte par Faraday, Maxwell, Hertz puis enfin Boltzmann, et qui sont avant tout conçus comme formulations mathématiques simplifiées voire fictives. Turing insiste même sur le fait que son modèle est d’emblée « falsifié », « réfuté ». Il s’inscrit ainsi manifestement dans la tradition d’un certain positivisme fictionnaliste et commodiste, si l’on peut dire. Il rejoint cette sorte de fictionnalisme fort ou « idéalisme positiviste » que le philosophe Hans Vaihinger prônait en 1911, dans sa Philosophie des ‘als ob’ 660 . Celui-ci affirmait en effet que tout ce qui permet d’expliquer le monde repose sur des fictions, et que, en dernière analyse, tous ces construits fictionnels comportent d’un certain point de vue des contradictions internes et sont donc dès le départ inconsistants. On ne peut comprendre le monde qu’en se contredisant 661 .

À le lire, Turing s’annonce prêt à assumer une telle inconsistance et donc un tel déracinement des formalismes. Mais en même temps, comme nous l’avons montré, sa position est ambiguë. Car il s’inscrit aussi dans une autre tradition : celle de l’embryologie chimique théorique, c’est-à-dire cette partie de l’embryologie qui reste fidèle à la recherche classique d’authentiques théories et non de modèles déracinés, et qui tend à se demander en priorité à quel type de phénomènes physico-chimique il est possible de réduire, en première analyse, les processus de morphogenèse. Or, il y a bien aussi une trace de ce réductionnisme unitaire dans le travail de Turing. Et le fait que son travail ait été d’abord récupéré et revendiqué quasi-exclusivement par l’école de botanique théorique de Manchester en dit assez long sur les limites de son modélisme de fait. Son épistémologie explicite est donc en avance sur sa pratique de formalisation effective. Son chimisme ne peut que contredire son modélisme. Dans le prolongement de Turing, on ne peut guère envisager la simulation comme autre chose que comme un calcul approché d’un modèle dynamique non-linéaire sur ordinateur.

Du point de vue de la forme des vivants, l’aspect que privilégie Turing est celui de l’émergence d’une hétérogénéité dans les tissus organiques. Cette hétérogénéité et cette dissymétrie étaient bien en effet un des achoppements que rencontraient les modèles explicatifs réductionnistes antérieurs. L’usage de l’ordinateur étend l’empire des modèles mathématiques explicatifs en rendant soluble une catégorie de ces modèles jusque là rebelle au calcul.

Il en va tout autrement du travail d’Ulam. C’est avec lui que naît véritablement la simulation sur ordinateur. Ulam part d’emblée d’une discrétisation. Sensible à une vision plus empiriste des modèles mathématiques eux-mêmes, il fragmente irrémédiablement toute formulation qui se voudrait théorique et unitaire. Son approche est constructiviste, en ce sens. Sa vision granulaire des concepts bénéficie d’une rencontre heureuse avec un objet biologique. Et elle peut être avantageusement instrumentée et amplifiée par l’ordinateur. Ulam n’est pas fasciné par l’aléa en tant que tel. Il ne se rapproche pas du vivant par ce biais-là, mais plutôt par le biais d’une approche populationnelle et surtout répartie dans l’espace des phénomènes de morphogenèse. Ce qui l’intéresse est cette émergence de formes globales à partir de règles locales de réitérations valant sur des formes géométriques élémentaires. C’est donc plutôt l’obstacle de la spatialité, de la bidimensionnalité, des interactions parallèles et non unilinéaires qui les accompagnent, qu’il propose que les formalisations de la morphogenèse franchissent avec l’aide de l’ordinateur.

En contact étroit avec von Neumann, Ulam hérite lui aussi en quelque manière de l’esprit qui anime la « méthode des modèles ». Mais alors que von Neumann insistait surtout sur les isomorphies, donc sur des similitudes purement formelles et sur des identités entre logiques par-delà la différence entre les substrats, avec la méthode de Monte-Carlo, Ulam apprend pour sa part à re-donner un aspect concret aux formalismes : le caractère aléatoire et le caractère réparti. C’est en ce sens que les formalisations d’Ulam sont des simulations au sens fort : elles sont des imitations partielles, sans totale transposition algébrique ou symbolique, de certains des caractères présents dans les phénomènes.

Mais le fait que ce soit justement certains de ces caractères qui soient plus particulièrement pris en compte et simulés contribue tout de même à faire rentrer ces simulations de la morphogenèse dans la catégorie des modèles simplificateurs et perspectivistes. En ce sens, Ulam, lui aussi ne fait qu’étendre l’emprise des modèles. Il contribue à amplifier leur diversification comme leur dispersion.

C’est enfin Eden qui va mettre en lumière l’intérêt de la formalisation synthétique de l’aléa dans la multiplication cellulaire. Lui aussi, il spatialise sa représentation en recourant à une grille de points. Mais c’est surtout afin de voir empiriquement ce que donne à la longue la réitération de règles probabilistes locales. Il veut voir si un ordre ou une dissymétrie émerge de la conjonction de ces aléas élémentaires. Et seuls la rapidité de calcul et les périphériques d’affichage graphique de l’ordinateur permettent une telle expérience. Ce faisant, il importe dans le domaine des formalisations de la morphogenèse une technique d’identification de modèles issue de la reconnaissance automatique de formes. Plus proche des problématiques de mesure, et notamment de mesure de formes, il est compréhensible qu’il soit mû par une conception d’emblée statistique, davantage liée à la morphométrie. Mais le passage à la discrétisation de principe lui est suggéré par sa collaboration avec des linguistes pour lesquels le langage présente, d’évidence, un ensemble de systèmes discrets. Il ne lui reste alors plus qu’à penser à la théorie cellulaire, depuis longtemps notoire en biologie pour qu’il s’essaie à la simulation de croissances cellulaires.

Même si elles conservent leur caractère concret à certains aspects du phénomène, les simulations d’Eden font donc aussi des choix : l’aléa et la répartition. L’hétérogénéité y est laissée un peu de côté même si, dans ses efforts pour complexifier son modèle de simulation, il rejoint au passage la théorie des gradients chimiques de Child et s’il retrouve l’allure de certains résultats empiriques de Paul Weiss. La ramification ne peut y être simulée, par exemple, au contraire de l’approche d’Ulam. C’est pourquoi il présente sa simulation comme une formalisation approchée de la croissance d’une colonie de monocellulaires.

Finalement, comme les modèles mathématiques qui leur sont contemporains, ces premières simulations sont différentes entre elles du point de vue du formalisme adopté, comme du point de vue de l’option prise par rapport à ce que le formalisme doit prioritairement représenter, comme encore du point de vue du rôle conféré à l’ordinateur. La simulation des formes sur ordinateur naît bien, elle aussi, en ordre dispersé, comme nous le pressentions.

De plus, il faut reconnaître que, même si elles présentent des rapprochements plus étroits avec le caractère concret des phénomènes par rapport aux modèles mathématiques, cela ne leur permet pas pour autant de sortir de l’approche purement spéculative qui est communément la leur à l’origine. Ces simulations paraissent plus concrètes, à certains égards, que les modèles, mais elles sont encore bien trop théoriques en un sens précis : aucune ne prête directement et véritablement à une confrontation avec l’expérience. Aucune ne paraît pouvoir être calibrée d’emblée. La suite des événements a pleinement témoigné en faveur de ce diagnostic d’infirmité : il faudra attendre les années 1967 et 1968 pour que l’on envisage de les faire se confronter au terrain.

Entre-temps, les biologistes théoriciens, submergés par la diversité des modèles perspectivistes et déracinés, vont continuer à faire évoluer leurs stratégies de résistance. Certes, ils ne lutteront plus directement contre le déracinement, de peur d’être taxés de réductionnistes étroits ou idéalistes, mais ils lutteront contre la dispersion des modèles, phénomène qui est lui-même un résultat du déracinement de l’époque antérieure. Ils lutteront aussi, ce qui est nouveau, contre un des promoteurs les plus efficaces de cette dispersion, à savoir l’ordinateur. Mais, auparavant, précisément afin de mieux comprendre dans quel nouveau contexte ces théoriciens de la morphogenèse vont se retrouver et devront s’adapter, il nous faut parcourir d’un rapide regard la nature des différents usages de l’ordinateur en biologie en ce début des années 1960, c’est-à-dire peu après son apparition et sa diffusion. Le renouvellement des problématiques plus spécifiques de formalisation de la morphogenèse sous l’effet de l’émergence de l’ordinateur comme les nouvelles formes de résistances intellectuelles que cette émergence a occasionnées nous apparaîtront ensuite d’autant plus clairement et distinctement.

Notes
660.

Rappelons que ce texte remontait pour l’essentiel aux années 1876-1879. Il s’était développé dans l’esprit d’une reprise post-kantienne de l’empirisme anglo-saxon. Il a donc largement ignoré les prémices du pragmatisme américain comme celles du positivisme viennois des décennies qui ont suivi. Il n’a été publié qu’en 1911, après de longues tergiversations et multiples avatars. Voir [Vaihinger, H., 1911, 1935], pp. xxiii-xlviii.

661.

“To understand is to reduce to known ideational constructs. Empty space, and atoms interpreted in a material sense, seem to be such constructs, but in actual fact they are only fictions [il s’agit ici d’une allusion aux paradoxes de Zénon]. If however we succeed in reducing everything to these fictions then the world seems to be understood. It seems to be ! These apperceptive constructs are fictions, the product of the imaginative faculty […] Thus the immense work of modern science reduces all existence, which in the last analysis is absolutely incomprehensible, to an entirely subjective and purely fictional standard”, [Vaihinger, H., 1911, 1935], pp. 52-53. Nous citons ce livre dans sa traduction anglaise.