Le rôle épistémique de la simulation pour la biologie du développement

À ces trois rôles que Cohen confère à l’ordinateur, s’en ajoute enfin un quatrième, plus général, et qui rassemble en fait en une seule fonction épistémique les trois rôles précédents : pour le biologiste théoricien qu’il est devenu, la simulation sur calculateur numérique a pour fonction de tester des hypothèses théoriques. On pourrait s’étonner de la présence de cette idée dans la mesure où, dans la biologie des formes des années 1960, c’est surtout l’observation ou l’expérimentation sur le terrain ou en laboratoire qui sert à tester les hypothèses théoriques. Il est intéressant de revenir sur ce que veut dire précisément Cohen à ce sujet dans la mesure où l’on a sans doute ici un des premiers travaux où un théoricien de la biologie des formes s’approprie effectivement une idée qui, jusqu’à présent et pour cet objet d’étude, n’avait été avancée que par des non-spécialistes, c’est-à-dire par des non-biologistes. L’idée que l’on peut tester des hypothèses théoriques par des simulations numériques avait été exprimée, on s’en souvient, dès les débuts des calculateurs numériques, mais d’abord dans des travaux de physique nucléaire puis de biochimie et de physiologie. Sous l’impulsion des travaux initiés par le statisticien Eden, c’est donc bien chez Cohen qu’une première appropriation de l’idée de la simulation numérique entendue comme test d’hypothèse morphogénétique semble s’imposer. C’est donc avec lui que la biologie du développement et de la forme semble pouvoir s’assimiler les usages de l’ordinateur non pas seulement comme calculateur mais comme simulateur. Voici pour quelle raison selon lui :

‘« Un programme de simulation qui incorpore des hypothèses au sujet du processus de génération d’une forme naturelle fournit une méthode de rejet non ambigu d’hypothèses incorrectes au moyen de la comparaison entre la forme naturelle et sa simulation. » 1116

Selon Cohen, il faut donc deux conditions pour considérer que l’on a affaire à une simulation permettant de rejeter une théorie.

Premièrement, il faut que le programme informatique lui-même « incorpore » les hypothèses. Or, on remarquera deux choses à ce sujet : le programme a bien d’abord pour effet de matérialiser en quelque sorte ce qui n’était jusqu’à présent que formulations verbales. En ce sens, le programme gagne une proximité avec l’empirie. De surcroît, la représentation informationnelle des gènes et de la « programmation génétique », courante à l’époque, aide à cette identification. Ensuite, il faut noter le pluriel d’« hypothèses » : le programme donne de la chair à un ensemble d’hypothèses et non à une hypothèse isolée. Comme on l’a vu, c’est la diversité des règles qui remplace l’unicité d’une loi. Dans ce programme, il y a les règles de croissance et les règles de branchaison, par exemple : ces deux types de règles supposées sont testés ensemble, imbriqués l’un dans l’autre.

Deuxièmement, il faut qu’une comparaison soit possible avec les « formes naturelles ». Autrement dit, la simulation ne peut avoir la force de rejeter des hypothèses que si le calculateur va jusqu’à fournir des moyens de comparaison avec l’empirie : la simulation ne rejette pas d’elle-même un ensemble d’hypothèses ; il faut que son pouvoir de rejet lui vienne, par transitivité, de la forte ressemblance de ses résultats avec ceux que l’on trouverait dans la nature. Or, il est important de noter que c’est grâce au système technique de visualisation ajouté au calculateur TX-2 que la simulation communique à l’ordinateur son pouvoir de rejeter des théories morphogénétiques, pouvoir qui, jusqu’à présent était l’apanage de l’expérimentation réelle. Notons toutefois que cette comparaison (donc cette relation de transitivité) ne se fait ici que de manière qualitative, à l’« œil », pourrait-on dire. C’est sans doute pour cela qu’à la différence d’Eden et Ulam, Cohen, sachant de quoi il parle en matière de substrat biologique, est le premier à utiliser le terme « simulation » pour désigner ce type de modélisation et de visualisation des formes vivantes sur calculateur 1117 . Mais selon Cohen, ce caractère ponctuellement qualitatif n’enlève rien à la non-ambiguïté du procédé global de test d’hypothèses. Car il n’évoque ici que des phénomènes de forme déjà répertoriés comme typiques, génériques, et aisément reconnaissables globalement et à l’œil nu. Selon lui, dans le cas d’une approche théorique de la biologie des formes, les dessins de la table traçante suffisent, pour le spécialiste, à évoquer des formes d’organismes réels et réellement observés. C’est cette seule évocation elle-même qui suffit. Ainsi, les dessins ne prouvent pas les hypothèses, mais ils ne les rejettent pas et ils les conservent comme plausibles. Mais en quoi cette preuve de plausibilité ou de faisabilité importe-t-elle tant pour la biologie théorique, selon Cohen ?

Pour tenter d’éclairer les motivations épistémologiques de Cohen, nous irons jusqu’à proposer, pour notre part, une analyse complémentaire de ses résultats comme de sa proposition méthodologique à propos des usages de l’ordinateur en terme de « contenu informatif » des hypothèses. Ce type d’interprétation s’appuie sur le raisonnement que tient Popper à propos de l’apport informatif important que peut constituer la simple corroboration d’une théorie audacieuse 1118 . Ce pourrait être en effet une piètre avancée pour une théorie biologique de montrer qu’elle est tout au plus plausible. Mais en fait, ce qui nous apparaît à la lecture de l’article de 1967, c’est que, aux yeux de Cohen, la démonstration de sa plausibilité apporte beaucoup à la biologie théorique dans la mesure où il était a priori plus vraisemblable (au sens de plus intuitif) pour ses détracteurs que de telles règles simples et en nombre limité n’existent pas. Donc la simulation enseigne vraiment quelque chose de nouveau au biologiste à partir du moment où elle lui montre la possibilité, pour un phénomène précis, que la nature procède d’une façon contre-intuitive au regard des critères habituels de l’époque, c’est-à-dire ici qu’elle procède par des moyens simples pour obtenir des effets compliqués. Dans ces conditions, on conçoit mieux que la simulation numérique prolongée par une visualisation des formes peut gagner un statut argumentatif en biologie théorique. Cette suggestion d’interprétation complémentaire se confirme par ailleurs si l’on remarque que Cohen insiste sur le fait que ce qui importe, c’est bien la démonstration qu’une petite quantité d’information peut commander une morphogenèse au résultat compliqué 1119 . Même s’il est biologiste, cet argument est repris directement des réflexions d’Eden 1120 mais aussi des propos couramment tenus par les promoteurs de la cybernétique.

Il est d’ailleurs significatif que Cohen ne continue pas ensuite à simuler par ordinateur les processus de croissance de formes biologiques mais se concentre sur des problèmes de la biologie évolutionnaire. Mis à part un article de 1970, dans lequel il a encore recours à l’ordinateur pour simuler la genèse de formes par des interactions locales 1121 , il travaille de plus en plus avec les concepts du contrôle optimal qu’il adapte alors à la biologie des « histoires de vie » 1122 . De son point de vue, le biologiste qu’il est a en effet atteint son but théorique initial avec cette simulation de 1967 : montrer une faisabilité, montrer notamment la validité du concept théorique d’« utilisation optimale de l’information » 1123 pour le développement, mais non point utiliser la simulation au maximum de ses capacités pour prédire exactement une croissance dans le but pragmatique d’agir sur les productions naturelles soit pour les exploiter, soit pour les modifier. La perspective de Cohen restant théorique, la simulation reste pour lui un outil d’argumentation conceptuel, même si, dans cette première incursion dans la biologie du développement, une attention essentielle est donnée au résultat figuratif.

Notes
1116.

“A simulation programme which incorporates some hypotheses about the generation process of a natural pattern provides a method for an unambiguous rejection of incorrect hypotheses by comparing the natural pattern and its simulations”, [Cohen, D., 1967], 248.

1117.

Le titre de son article ce 1967 est bien “Computer Simulation of Biological Pattern Generation Processes“. Il doit probablement l’application de ce terme dans ce contexte aux travaux de von Neumann mais aussi à sa fréquentation de von Foerster.

1118.

Voir [Popper, K .R., 1963, 1985], p. 322 : « La théorie qu’il faut préférer, selon un tel critère, est celle qui en dit le plus, c’est-à-dire qui contient la plus grande masse d’informations empiriques ou dont le contenu est le plus important, celle qui est la plus forte logiquement, qui a le plus grand pouvoir d’explication et de prédiction et peut, en conséquence, être le plus sévèrement testée en comparant phénomènes prédits et observations. En un mot, notre préférence va aux théories intéressantes, audacieuses, et dont le degré d’information est élevé plutôt qu’à des théories triviales. » C’est l’auteur qui souligne. Cette préférabilité n’est pas fondée sur une improbabilité évaluée objectivement car elle n’est pas entendue pour le futur mais elle est dépendante de l’époque comme Popper l’a, en partie, concédé. Voir [Popper, K. R., 1972, 1991, 1998], p. 62, mais aussi la critique du philosophe des sciences Alan F. Chalmers in [Chalmers, A. F., 1976, 1987, 1990], pp. 100-102. C’est en ce sens faible et historiquement situé que nous recourons ici à ce raisonnement.

1119.

[Cohen,, D., 1967], p. 248.

1120.

C’était aussi, on s’en souvient, un des arguments d’Ulam pour attirer l’attention des biologistes sur son modèle de croissance de formes. Voir [Ulam, S., 1962], p. 215.

1121.

Voir [Cohen, D., 2000], p. 4.

1122.

Voir [Cohen, D., 2000], p. 3.

1123.

Voir [Cohen, D., 2000], p. 2.