Conclusion. Convergences autour de la simulation pluriformalisée

Entre-temps, la convergence institutionnelle s’accélère vivement. Le 1er janvier 1999, à expiration de la convention d’association signée en 1995, et sous l’impulsion de la politique de Claude Allègre, AMAP est devenue une Unité Mixte de Recherche INRA/CIRAD. À partir de 1998, en effet, ce qui était parfois encore regardé comme un excroissance coûteuse dans le cadre de la politique scientifique du CIRAD devient au contraire une vitrine pour la restructuration de la recherche française. Cette restructuration est conçue par le ministère autour de « pôles de compétences », au-delà des frontières entre institutions de recherche et d’enseignement 2096 . La méthodologie, les concepts et les technologies logicielles d’AMAP sont également enseignés plus largement et systématiquement. Tous les chercheurs sont mis à contribution.

Le 1er janvier 2001, toujours sous la direction de François Houllier, la convergence se poursuit : AMAP devient une UMR CIRAD/INRA/CNRS/Montpellier II. Elle prend le nom de «UMR Botanique et bioinformatique de l'architecture des plantes ». Le terme « bioinformatique » est arraché de haute lutte, notamment par François Houllier, au monopole de la génomique et de la protéomique. En janvier 2003, Houllier est nommé chef du département « Ecologie des forêts, prairies et milieux aquatiques » (EFPA) de l’INRA. Et c’est Daniel Barthélémy qui devient directeur de l’UMR AMAP 5120. Ce même 1er janvier 2003, cette UMR se voit encore associée à l’EPHE (Ecole Pratique des Hautes Etudes), à l’INRIA et à l’IRD 2097 .

Ainsi, l’époque des convergences mérite bien son nom. Après une période de dissémination des propositions formalisées de modélisation mathématique puis de simulation spéculative sur ordinateur, les années 1970 ont vu la naissance des premières convergences des simulations avec l’empirie. Cette première série de convergences était limitée. Chez les biologistes et botanistes, elle entrait dans le cadre de préoccupations encore principalement théoriques. Et la modélisation mathématique pragmatique, dont la source était la biométrie anglaise et son épistémologie afférente, ne pouvait se sentir inquiétée par de tels développements. Il en a été autrement à partir du moment où cette convergence de la simulation avec l’empirie a été un besoin dans une problématique agronomique et de terrain. Dans ce contexte, la simulation est tout de suite entrée en dialogue étroit avec la modélisation statistique pragmatique et mono-formalisée. Dans l’histoire que nous avons rapportée, on voit que l’ordinateur, pensé très tôt chez certains comme support de simulations réalistes, détaillées et pluriformalisées, a pu se battre pied à pied avec ce type plus classique de modélisation pour remporter enfin une victoire, peut-être éphémère mais bien réelle, jusque dans la modélisation explicative de la morphogenèse.

Commença alors la période des trois convergences ou conciliations disciplinaires : avec l’informatique graphique, avec la foresterie, avec l’automatique. Cette série de convergences alla de pair avec une simplification formelle, du point de vue de la généralité mathématique des modèles supports des simulations. Cette simplification conduisit à une concrétisation et à une standardisation de l’outil logiciel, comme à l’amplification de son caractère opérationnel. Or, cette re-mathématisation n’aurait sans doute pas été possible si la dispersion des modèles n’avait auparavant été exorcisée ou neutralisée par le pluriformalisme natif des modèles de simulation de l’architecture. Comme conséquence de cela, et malgré de fortes résistances, on a vu que l’épistémologie des scientifiques elle-même a dû se réformer dans l’urgence, afin de permettre de penser ce qui était devenu bien réel et qui fonctionnait sous leurs yeux. Certains travaux timides voient même déjà au-delà, aujourd’hui, et proposent ce que nous pourrions appeler la quatrième convergence : celle de la simulation architecturale et morphogénétique avec la génétique et la biologie moléculaire 2098 . Mais il nous faudra attendre encore pour dire si l’espoir de cette convergence est prématuré ou non.

Parallèlement à ce développement de la simulation architecturale, des propositions de modélisation physicaliste continuèrent à se développer un peu partout dans le monde et à rechercher parfois la calibration, mais sur des espèces de plantes particulières. En fait, elles en restèrent encore massivement à une approche théorique et spéculative. C’est pourquoi nous n’en avons pas suivi le détail sur les deux dernières décennies : elles n’ont fait que contextualiser de loin les avancées propres de la simulation architecturale opérationnelle, sans renouveler fondamentalement l’esprit des approches monoformalisées de notre deuxième période : celle des dispersions. Elles en restèrent essentiellement à ce moment-là de l’histoire des modèles 2099 . Elles n’ont pas convergé les unes vers les autres ni vers des usages spécifiques. Ainsi en est-il par exemple des travaux de biomécanique du botaniste et mathématicien, en poste au Département de Biologie Végétale de l’Université Cornell (New York), Karl J. Niklas. Dans une double perspective d’ingénierie en mécanique et de biologie évolutionnaire, Niklas utilise l’ordinateur pour complexifier l’approche classique de Murray, Rashevsky et Cohn. Il propose d’employer les équations de la mécanique des fluides pour rendre temporel à l’échelle de la phylogénie un principe d’optimalité physico-physiologique au regard de ce qu’il appelle les « performances » de la plante. Niklas et ses collègues ont ainsi été amenés à produire un programme simulant, au cours du temps, la sélection naturelle des performances physico-physiologiques d’un grand nombre de plantes dont les formes avaient d’abord été tirées au hasard 2100 . Ils cherchent à voir émerger les formes les plus performantes du point de vue de leur allométrie.

L’insistance sur le caractère évolutionnaire de la morphologie d’une plante, mais à une autre échelle, est également le fait de deux chercheurs israéliens : Tsvi Sachs et Ariel Novoplansky (Département de Botanique de l’Université de Jérusalem). Selon eux, les « modèles architecturaux ne suffisent pas » 2101 à exprimer l’architecture d’une plante. Ils ne se reconnaissent donc pas dans l’approche de Hallé et Oldeman qu’ils trouvent réductrice. En effet, pendant la croissance de la plante dont ils rappellent qu’elle appartient à un groupe évolutionnaire tardif, des détails imprévisibles apparaissent. Ces détails sont contraints par la mécanique intervenant au cours de la croissance comme par des différenciations progressives elles-mêmes fonctions de la distance de l’apex aux racines : la plante reste un organisme évolutionnaire à l’échelle même de l’ontogénie. Les auteurs arguent alors du fait que les mécanismes qui sont responsables du changement graduel du mode de développement des branches ne sont pas connus 2102  : on aurait donc tort de les modéliser par un modèle déterministe et de se croire satisfait à bon compte. En fait, en 1995, en invoquant le défaut de scénario explicatif dans les travaux de leurs collègues, Sachs et Novoplansky visent surtout l’école de Prusinkiewicz 2103 dans la mesure même où elle n’a pas encore intégré à l’époque les aléas ni les rétroactions du global sur le local dans ses modèles, comme le fera Kurth par la suite, tirant en cela les leçons de l’AMAP. De plus, ils rendent compte du niveau davantage biochimique et mécanique de leurs travaux sur la morphogenèse. En 2004, en effet, Sachs et ses collègues montreront le rôle de l’auxine dans la formation des feuilles, en lien avec un modèle local d’auto-organisation.

Pendant les décennies 1980 et 1990, de nouveaux modèles purement physicalistes ont aussi régulièrement vu le jour à proportion même des avancées de la physico-chimie. Ainsi en est-il du modèle analogique d’Agrégation Limitée par la Diffusion (DLA) des physiciens spécialistes en physique statistique loin de l’équilibre que sont T. A. Witten et L. Sander (Université du Michigan - 1981). Ce modèle est né dans le cadre d’études des phénomènes de cristallogenèse et de percolation 2104 . Il est simulable aisément sur ordinateur et mène à une croissance fractale. Il s’agit de faire venir, par une marche aléatoire, une particule qui diffuse sur un agrégat déjà constitué et de la faire s’agréger dès qu’elle rentre en contact avec cet agrégat. On obtient ainsi la croissance d’une forme ramifiée dont la nature purement aléatoire et déstructurée ne permet bien sûr aucun rapprochement précis avec la croissance des plantes. En fait, la plante ne croît pas par agrégation de particules venant de l’environnement aérien extérieur, mais par croissance interne et assimilation préalable de nutriments. Les botanistes ne retiennent donc pas ce modèle.

Par ailleurs, à partir de 1991, S. Douady et Y. Couder, du Laboratoire de Physique Statistique de l’ENS-ULM (rue Lhomond), présentent une expérience d’auto-organisation de gouttes de ferrofluide sous l’effet d’un champ magnétique : à partir d’une petite surélévation dans l’huile qui les reçoit, ces gouttes, lâchées périodiquement à partir d’une pipette, diffusent vers le lieu où se trouve le minimum d’énergie eu égard à leur polarisation, en tant que dipôles, et eu égard au champ magnétique global. Ainsi, la nouvelle goutte se fixe à une distance de la goutte précédente telle que les divergences irrationnelles classiques de la phyllotaxie (série de Fibonacci) sont ainsi reproduites 2105 . La simulation numérique conjointe aboutit au même résultat. C’est une nouvelle occasion pour Roger V. Jean de déclarer qu’il n’y a pas besoin d’imaginer que les patterns de la phyllotaxie sont commandés par les gènes et qu’il suffit de les rapporter à des lois physiques 2106 . Mais il est encore obligé de reconnaître la variété immense des approches explicatives de cette petite partie de la morphogenèse qu’est la phyllotaxie.

Aucun de ces modèles monoformalisés n’a encore véritablement rejoint le terrain de l’empirie dans sa précision, comme dans sa généralité et sa diversité. Les différents substrats analogiques du physicalisme se sont tout au plus diversifiés, sans que le spectacle d’une dispersion entre ces approches parcellaires, et souvent purement suggestives d’un point de vue théorique, ne cesse, bien au contraire. Toutefois, par rapport aux publications grand public, cycliques et de même genre, du milieu des années 1990, dans la publication récente Les formes de la vie 2107 , la rupture entre l’approche par modèles mathématiques et l’approche par simulation pluriformalisée, même si elle n’est pas consciemment assumée ni expliquée ou revendiquée, est latente : alors que certains auteurs en restent encore au vieux rêve de d’Arcy Thompson, d’autres, souvent plus jeunes, en appellent à une « voie holistique » 2108 , qui n’est finalement qu’une forme particulière de simulation reconstructrice, pluriformalisée, historiciste et réaliste, servant à résoudre le problème essentiel, et cette fois-ci explicitement reconnu, du caractère non monoformalisable des objets complexes en croissance 2109 . Mais malgré ces frémissements de convergence dans les approches classiquement théorico-physicalistes, aujourd’hui encore, la simulation informatique de la plante intégrale, conçue à partir des réelles connaissances de la science descriptive qu’est la botanique, paraît pouvoir conserver son avance quelque temps dans le domaine des transferts de méthodes formelles sur le terrain. Davantage : la recherche de modèles mathématiques effectuée à partir de simulations architecturales fidèles, ayant la pleine valeur d’un terrain d’expérimentations virtuelles, et non plus à partir des habituelles suggestions physicalistes venues directement de la chimie ou de la physique, s’y épanouit et y prend un sens désormais indéniable. En fait, comme on l’a vu, une telle entreprise de simulation architecturale, doublée d’une modélisation sur simulation, demande beaucoup de travail de terrain, sans que le rapport entre l’expérience réelle et le formalisme y demeure pour autant dialectique : c’est qu’il y entre un troisième terme, celui de la simulation. Une telle modélisation n’est pas non plus comparable à une mathématisation purement positiviste, c’est-à-dire directe, arbitraire et indifférenciée. N’étant une formalisation ni dialectique, ni positiviste, la méthode qu’elle introduit est une manière assez inédite de modéliser et d’expérimenter.

Notes
2096.

Voir le rapport d’activité du CIRAD de 1998, in [CIRAD, 1999], p. 9 : « Le CIRAD redéfinit sa stratégie d’alliance » [ Titre du chapitre]. Plus loin, on lit « Le CIRAD s’est donc résolument engagé dans une campagne de contractualisation au sein d’unités mixtes de recherche avec les université et les écoles d’enseignement agronomique. » À l’époque, Guy Paillotin est Président du Conseil d’administration. Alain Pavé est Président du Conseil scientifique. Bernard Bachelier est Directeur général. Et Alain Coléno est représentant du ministre de l’éducation nationale, de la recherche et de la technologie au sein du Conseil d’administration.

2097.

UMR 5120 du CNRS, UMR 931 de l’INRA et R 123 de l’IRD. Selon le site de l’Université de Montpellier II, ses objectifs en 2003 sont désormais d’« Évaluer la variabilité de l'architecture des plantes dans une perspective de sélection ou d'amélioration génétique. Comprendre, modéliser et simuler le fonctionnement intégré des plantes et des peuplements végétaux afin de prédire leur production en quantité et en qualité. Représenter les paysages et leur évolution dans une perspective d'aménagement et de gestion des espaces ruraux et urbains. Développement des logiciels de simulation de la croissance des arbres et des peuplements. » Ce site est accessible à l’adresse suivante : http://www.montpellier123.com/pages/fiche-complete.php?num=98. En octobre 2003, l’UMR compte 43 agents permanents.

2098.

Ainsi en est-il des travaux sur les QTL (Quantitative Trait Loci). Ce sont des loci de gènes qui codent pour des traits quantitatifs, donc en particulier pour des tailles de caractères morphologiques. En 2000, des chercheurs allemands de l’Institut de Génétique des Plantes de Gatersleben ont fait simuler à l’ordinateur la morphologie finale d’un épi d’orge en lien avec des génotypes connus faisant intervenir des QTL. Il ne s’agit de la simulation que d’une partie d’une plante herbacée, mais déjà « les interactions entre gènes et entre allèles sont calculées en utilisant les connaissances fournies par les études génétiques expérimentales et permettent la prédiction des valeurs de variables morphologiques », [Buck-Sorlin, G. H. et Bachmann, K., 2000], p. 691. Ces prédictions se font par interpolation. Les auteurs utilisent le formalisme du « laboratoire virtuel » de Prusinkiewicz. Ils s’appuient sur un L-système paramétrique semblable à celui de Fournier et Andrieu.

2099.

Les différents articles de la publication collective de [Fleury, V. et Bouligand, Y., 2004] en témoignent encore.

2100.

Voir [Niklas, K. J., 1986] et [Niklas, K. J., 2000].

2101.

Voir [Sachs, T. et Novoplansky, A., 1995].

2102.

[Sachs, T. et Novoplansky, A., 1995], p. 209.

2103.

À l’époque, ils ne connaissent pas l’approche d’AMAP et notamment les travaux de Frédéric Blaise.

2104.

Voir [Fleury, V., 1998], pp. 107-125, [Stewart, I., 1989, 1997, 1998], pp. 319-321

2105.

Voir [Jean, R. V., 1994, 1995], pp. 262-265.

2106.

[Jean, R. V., 1994, 1995], p. 264.

2107.

Numéro hors-série de Pour la science, n°44, juillet-septembre 2004 : [Fleury, V. et Bouligand, Y., 2004].

2108.

[Fleury, V. et Bouligand, Y., 2004], p. 87.

2109.

Voir l’aveu récent du physicien de la matière condensée, Vincent Fleury lui-même, in [Fleury, V. et Bouligand, Y., 2004], p. 3 : « De tels systèmes dépassent un seuil de complexité (‘algorithmique’) qui n’est pas réductible, et ils ne sont pas mathématisables individuellement : l’information est trop dispersée dans l’espace et dans le temps de sa construction […] On ne peut décrire aucune arborescence particulière, mais on peut engendrer une arborescence de la même famille, par simulation numérique, sans qu’il soit possible de rentrer dans la ‘pensée’ de l’ordinateur : l’apparition de cette arborisation par simulation n’est pas formalisable. » Voici donc ce versant classique (physicaliste) de la biologie théorique qui, lui aussi enfin, semble converger vers cet outil de convergence, par excellence, qu’est la simulation informatique (et non numérique). Actuellement (2004), en travaillant avec des collègues biologistes, Vincent Fleury apprend en effet à fragmenter et à pluriformaliser ses modèles, pour en faire un traitement par simulation. Ainsi en est-il des simulations de ce qu’il appelle significativement le « façonnage » des vaisseaux sanguins, ibid., p. 113. A cette même page, on retrouve même un style qui fait un troublant écho aux propos de de Reffye de 1976 : « Pour obtenir l’image des vaisseaux, nous devons suivre ‘le film’ complet de la ‘croissance’ qui consiste en un remplacement de proche en proche d’un petit tuyau par un gros : à chaque étape, on recalcule toutes les modifications de l’écoulement. »