Conclusion générale

La modélisation de la forme des plantes au 20ème siècle présente une histoire particulièrement complexe. Elle est pour le moins un des reflets de son siècle. C’en est un reflet modeste en extension, il est vrai, mais assez clair et riche cependant en compréhension. Ainsi, autour de cet objet d’étude finalement assez étroit et aux côtés de l’histoire de l’agronomie, de l’amélioration génétique des plantes, de l’embryologie, de la botanique ou de la dynamique des populations, on rencontre aussi l’histoire de la décolonisation ou de la fédération progressive des recherches agronomiques pour le développement en France, comme on rencontre aussi l’histoire des mathématiques, de la statistique, de la recherche opérationnelle, de l'informatique, de la philosophie ou de la linguistique. Ces rencontres multiples risquaient d’ajouter à la confusion. Elles ont bien eu lieu pourtant comme l’attestent les documents. Et nous aurions été coupable de ne pas essayer d’en rendre compte. Avec cette enquête, nous pensons avoir montré qu’il ne fallait pas trop tenter de réduire cette multiplicité dès lors que l’on veut rapporter et comprendre une histoire de la modélisation.

En fait, nous avons cru pouvoir reconnaître de grandes tendances dans chacune des époques que nous avons isolées : successivement un déracinement puis une dispersion et enfin une convergence. En ce qui concerne la période qui nous a occupé, un des résultats principaux de cette étude, et qui intéresse en priorité notre problématique générale, est que c’est bien l’émergence de l’ordinateur, d’abord dans ce qui l’a précédé théoriquement et mathématiquement et ensuite dans les solutions techniques qu’il a proposées, qui a été en grande partie le moteur et le promoteur de cette scansion comme de cette évolution. Si le déracinement des formalismes est certes antérieur à l’ordinateur, c’est pourtant un contexte logiciste et néo-positiviste, initiateur privilégié du déracinement des formalismes au tournant du 19ème et du 20ème siècles, qui a vu naître ces automates à computation. Ce qui a préparé comme ce qui a suivi l’apparition de l’ordinateur a donc interagi avec cet étonnement voire avec cet émerveillement en revanche assez atemporel et assez uniformément répandu chez les hommes, qu’ils soient de science ou non, pour la genèse de la forme des plantes. Ainsi peut s’expliquer en partie le fait que ce soit finalement des mathématiciens, devenus entre-temps informaticiens, qui aient les premiers proposé des simulations de la morphogenèse végétale.

C’est que, par là, des formalismes nouveaux étaient à disposition. Ou plutôt, des réplications de « formes » déjà géométriquement complètes, remarquablement simples et occupant un espace prédéfini (triangles, carrés), pouvaient nouvellement devenir des « formalismes » de par la force computationnelle inédite des machines numériques programmables. Une certaine re-spatialisation des formalismes est devenue possible. De la forme a pu y être réinjectée à partir du moment précis où la computation est devenue automatique et où les règles locales de réitération ont pu être prises en compte sans plus nécessiter de condensation formelle sous la forme d’équations ou de modèles mathématiques au sens strict. Les formalismes se spatialisant, les formes spatiales ont pu être formalisées de manière plus souple. De leur côté, les langages informatiques étant de moins en moins copiés sur les formulations analytiques des mathématiques traditionnelles (car ne devant plus exclusivement servir à des problématiques de calcul numérique) sont devenus algorithmiques, puis orientés-objets, pour le plus grand bénéfice des simulations réalistes. Mais ce n’était pas encore suffisant. Car on n’obtenait par là que des simulations très vaguement ressemblantes et pas du tout calibrables. L’hétérogénéité ni la systématicité apparente des formes végétales n’étaient encore susceptibles d’être appréhendées par le calculateur numérique. D’abord inspirées par l’essor du paradigme de la computation en physique et en logique, les simulations de la morphogenèse restèrent donc des spéculations pendant près de 20 ans avant que l’idée et la technique de la pluriformalisation et de la modélisation fractionnée ne naisse dans un contexte agronomique français. Car il ne faut pas oublier que de Reffye n’est pas passé à la simulation architecturale parce qu’il disposait d’un système graphique plus performant qu’Ulam. C’était même plutôt le contraire ! À presque quinze ans d’intervalle, la station agronomique de Bingerville est loin de disposer des techniques informatiques du Los Alamos de 1959. C’est en fait par la suite, c’est après avoir décidé de fractionner sa représentation mathématique pour la recombiner informatiquement de manière à la rendre intégrale et fidèle que de Reffye a voulu rendre graphiques ces simulations. Alors seulement, il le fit au moyen d’une simple table-traçante du commerce à faibles performances.

De Reffye a donc finalement bénéficié d’une certaine absence de prévention : très vite, et cela au contraire de ses confrères davantage prévenus épistémologiquement, il a décidé de ne pas rechercher à toutes forces une représentation monoformalisée de la plante, même de manière probabiliste ou informationnelle. Il a aussi été porté par sa foi constante, un peu décalée pour son temps, en l’existence de « lois de la nature » dont il acceptait pourtant par avance la difficile intelligibilité formelle. De par le contexte et les problématiques de terrain auxquels il était confronté, ce n’était ni un triomphalisme mathématiste ou systémiste, alors courant en biologie théorique, ni une épistémologie physicaliste qui le motivaient avant tout, mais la simple applicabilité des modèles qu’il concevait. C’est cela qui, au bout du compte, l’a amené à quitter la biométrie, mais aussi la simple simulation numérique suggestive et à visée théorique, pour faire entrer l’étude et la modélisation de la morphogenèse des plantes dans l’ère de la simulation informatique.

En retraçant l’histoire des tentatives plus ou moins avortées de formalisation de la plante, du début du 20ème siècle jusqu’à l’orée du 21ème siècle, nous avons abouti à la mise en évidence de deux faits de type d’abord historique. Le premier est le développement progressif et irrépressible de la simulation par ordinateur, en un domaine où l’on tâche de représenter un objet par nature complexe. En près de 70 ans, alors que pour d’autres objets biologiques, les modèles mathématiques suffisaient et la simulation de représentation ne semblait pas nécessaire, dans le cas de la forme des plantes, l’évolution du statut épistémique des mathématiques et de l’ordinateur se poursuivait sans relâche. Ainsi y est-on d’abord passé de la théorie au modèle mathématique, puis du modèle mathématique à la simulation informatique. Le récit de cette émergence de la simulation informatique de la plante a lui-même conduit à suggérer un second fait historique qu’il faudrait confirmer par d’autres études plus larges sur l’histoire de la modélisation. Nous voulons parler de la triple naissance de la méthode des modèles en biologie et dans les sciences du vivant et de l’environnement : dans ses versants successivement statistiques (années 1920), cybernétiques (années 1950) et théoriques (années 1960 : bien que l’on puisse rétrospectivement, mais avec un regard déformant aux yeux de l’histoire, situer bien plus tôt la naissance de la modélisation en biologie théorique). Notre histoire, axée sur un objet d’étude précis, a constitué en effet une sorte de coupe longitudinale instructive dans l’histoire plus générale de la modélisation. Mais, si le caractère multiple de cette naissance apparaît bien au regard de l’évolution du traitement formel de la forme et de la croissance des plantes, elle ne nous permet pas de conclure encore à sa généralité.

D’un point de vue différent, plus épistémologique celui-ci, on voit se dessiner un autre résultat majeur de notre étude. C’est le fait que se confirme, pour le cas de la plante tout au moins, l’existence d’une troisième voie d’étude, ou source de connaissance, aux côtés de la théorie et de l’expérience, à travers les récentes techniques de simulation réaliste. Des expérimentations d’arboricultures et de sylvicultures virtuelles (effet de la verse, de la coupe, de l’élagage, des éclaircies sur la pousse) sont d’ores et déjà opérationnelles et utilisées. En 2003, avec l’intégration du fonctionnement dans les modèles de structure (toujours à la faveur de l’implémentation informatique et de son potentiel de convergence), les « expérimentations agronomiques virtuelles » annoncées en 1995 sont en passe de devenir réalité. L’ordinateur semble pouvoir devenir un « laboratoire virtuel », même si l’annonce de cet avènement avait été un peu trop précipitée par l’équipe de Prusinkiewicz. C’est en tout cas déjà le cas depuis le début des années 1990 pour ces urbanistes et ces paysagistes qui se servent quotidiennement de la technologie d’AMAP. Si l’on désire une analyse conceptuelle plus fine des raisons pour lesquelles on peut tenir cette simulation informatique pour une expérience concrète du second genre, nous nous permettons de renvoyer à nos articles sur cette question 2110 . En deux mots ici, on peut tout de même rappeler que la pluriformalisation gérée informatiquement a pour effet de rendre purement computationnel le résultat de simulation. En ce sens, le produit d’une simulation possède la singularité d’un calcul en droit non prédictible autrement. C’est cette singularité, non encore conceptualisable ni monoformalisable (à l’heure où on la propose), du produit de la simulation, qui en fait le caractère empirique. Par là, on voit que, intégrés dans les programmes multiformalisés, les mathématiques et les formalismes servent aujourd’hui à autre chose qu’à condenser. Les simulations sur ordinateur s’émancipent des modèles mathématiques. Elles n’en sont plus une dépendance ou une dérivation. Car il n’est plus besoin de disposer d’un modèle mathématique préalable pour effectuer des simulations. Les simulations ne sont plus des annexes de la modélisation mathématique. Elles ne sont plus secondes du point de vue de leur rôle épistémique. Elles ne servent plus systématiquement au titre de calculs particuliers d’un modèle, le modèle initial étant censé conserver une richesse virtuelle plus haute (au sens du « virtuel » mathématique du second Granger). Elles sont autre chose. Aujourd’hui, ce sont parfois des simulations que l’on cherche à modéliser et non des modèles que l’on cherche à simuler. Les modèles sont à la fin et non au début de l’entreprise de représentation formalisée sur ordinateur. La traditionnelle dialectique théorie/expérience est de ce fait bousculée. Il faut y faire entrer la simulation entendue comme terrain virtuel d’expérimentation à part entière, puis ensuite comme terrain de test et de calibrage de modèles mathématiques condensants 2111 .

Pourtant, nous avons eu aussi l’occasion de comprendre les limites de cette dernière approche de la simulation et de la formalisation : elle est loin de pouvoir passer pour une solution miracle et indépassable. Même si ces modèles de simulations singulières sont calibrés, ils ne donnent pas les moyens de comprendre les phénomènes sous-jacents puisqu’ils en assument (ou postulent) le fractionnement. Surtout, ils ne permettent pas de pratiquer des optimisations autrement que par tâtonnements. Dans la période dans laquelle nous entrons, il semble que la tendance soit à la re-mathématisation des simulations de manière à ce que la plante, dès lors qu’on dispose de sa représentation fidèle, soit traitée à la même enseigne que les systèmes physiques ou les systèmes artificiels dont on sait mieux déterminer a priori les points de fonctionnement optimaux pour des contraintes données. Ce qui achèverait de faire de la plante un produit direct de la conception humaine, cela certes après des millénaires d’hybridation et de sélection, et après des décennies d’amélioration génétique. Il est important de noter que, d’un point de vue méthodologique et épistémologique, cela ne disqualifie pas pour autant le moment de la simulation singulière dont nous parlions précédemment car c’est seulement à partir de simulations de ce genre que des modèles mathématiques condensants et optimisables ont pu être conçus et testés. Il semble qu’AMAP n’aurait pu passer directement à ce stade sans s’aider de la construction préalable de simulations architecturales reposant sur des modèles mathématiques fractionnés.

Signalons que nous n’avons pas pour autant raconté une simple success story où il n’y aurait qu’un seul gagnant à la fin. L’histoire que nous avons rapportée montre au contraire que les résistances et les oppositions, se métamorphosant et renaissant à chaque époque, si elles peuvent paraître aller contre le vent de l’histoire, ont, pour certaines, été retrouvées par la suite et ont ainsi considérablement aidé à la série des synthèses et des convergences récentes. Les spéculations de jadis peuvent être amenées à revivre d’un jour à l’autre, notamment avec la métamorphose d’un outil de calcul en outil de simulation. Il y a là une certaine dialectique comme une ironie dans l’histoire des sciences, de par cet effet de récurrence des formalismes. Ainsi, la tentative insolite de Woodger est oubliée pendant près de trente ans avant d’être reprise par Lindenmayer et enfin par Prusinkiewicz, puis Kurth, pour s’adapter récemment à la finesse des traits botaniques. Autre exemple : les modèles probabilistes longtemps hégémoniques en biométrie tendaient à représenter et à analyser le devenir moyen de toute la plante ; ils ont été recyclés pour l’expression et la synthèse de quelques lois locales dans la plante. Des formalismes qui étaient conçus dans des esprits différents, portés par des motivations opposées, se voient ainsi rendus mutuellement compatibles par des infrastructures de programmation à objets. Ce qui a réussi à de Reffye et à ses collègues, c’est donc une forme d’opportunisme rare, dont ils ont fait d’ailleurs consciemment leur credo. Il faut le reconnaître : cet opportunisme a été grandement facilité par leur appartenance au CIRAD qui, de par sa vocation et sa mission d’EPIC, tend structurellement à favoriser des échanges pragmatiques entre de très diverses disciplines en vue du règlement commun et à moyen/court terme de problèmes concrets. La réussite de l’AMAP est donc aussi la réussite de l’interdisciplinarité à laquelle prêtent les contrats et actions sur projets ciblés.

À cet égard, il est instructif de noter que l’école de modélisation française n’a pas su négocier très tôt ce tournant de la simulation. Elle n’y a même pas immédiatement participé. La principale raison de cette réticence est le long règne de l’épistémologie du modèle minimal et pragmatique. Avec la filiation Prenant, Teissier, Legay, nous avons rendu compte d’un des lieux d’origine principaux de cette épistémologie en France. Toutefois, l’approche plus nettement « indisciplinée » de Legay et de ses élèves a imposé l’acceptation de la dispersion des formalismes, comme la nécessaire interdisciplinarité intervenant dans toute modélisation. En cela, davantage que la biologie théorique mono-formalisée, elle était relativement prête à accepter et à interagir avec cette entreprise d’intériorisation et d’intégration de la diversité des formalismes en quoi consiste la simulation architecturale.

Pour une histoire plus spécifique de la philosophie des modèles en France et de ses liens avec l’histoire de la modélisation formelle, nous renvoyons à l’annexe B dans laquelle nous proposons quelques jalons et un début d’interprétation unitaire. Il est tout à fait saisissant, là aussi, de voir des conjonctions étroites entre l’histoire de la modélisation et l’épistémologie du temps. Nous sommes une fois de plus face à un authentique « esprit du temps ». À nos yeux, l’émergence de la simulation informatique a eu pour vertu de bousculer les cadres de la pensée épistémologique, tant des philosophes que des scientifiques, et de les faire ressortir dans leur contingence même et leur historicité. C’est pourquoi nous n’avons pu les utiliser pour servir à l’écriture d’une hypothétique « épistémologie historique » de la modélisation. La simulation elle-même, certes, n’échappera pas à son historicité. Mais elle nous aura au moins permis de juger et peut-être d’amender la philosophie des sciences contemporaine. Ainsi, le concept de « style » aurait été bien insuffisant pour dire toute la richesse de cette histoire des formalismes, de leurs usages de leurs motivations. Woodger et Rashevsky utilisent pendant un temps le même « style ». Ils n’ont pourtant pas du tout la même ontologie ni la même épistémologie. Or, cette différence, comme on l’a vu, aura des conséquences décisives sur la suite de l’histoire des sciences. On ne peut donc écrire une histoire de la modélisation en écrivant une histoire des « styles » de formalismes. Voilà ce dont notre étude nous a convaincu, en particulier.

Dans l’histoire de la modélisation appliquée aux sciences non-exactes et donc difficilement formalisables, il semble que l’histoire des mathématiques se mêle étroitement avec l’histoire des instruments et des pratiques, aussi bien qu’avec l’histoire des philosophies et des épistémologies. L’émergence d’un nouveau formalisme est d’ailleurs souvent l’occasion de voir naître un nouveau mathématisme comme une nouvelle ontologie. La naissance des techniques informatiques et de la théorie des automates n’y a pas échappé. Ainsi a-t-on vu parfois une sorte d’« informatisme » vouloir supplanter l’antique mathématisme. Mais ce que l’histoire des formalismes au 20ème siècle donne en particulier à voir, c’est cette dextérité nouvelle dans le passage incessant du physicalisme au mathématisme et inversement. Inspirée par la physique théorique, la biologie théorique entrant en résistance nous offre même l’exemple d’une vaste et progressive entreprise de subtilisation de son physicalisme originel vers un mathématisme polymorphe. Le mathématisme présente en effet l’immense avantage de protéger contre toute accusation de réductionnisme, comme il protège de l’accusation de croyance naïve en un enracinement des formalismes dans les choses.

Ce que nous apprend de surcroît l’étude précise du travail de formalisation de Woodger en embryologie, puis de Lindenmayer, en regard de celui de Rashevsky, c’est l’existence, peu soupçonnée par les historiens jusqu’à présent, d’un véritable « tournant linguistique » à motivation philosophique à l’intérieur de l’histoire de la modélisation contemporaine. Ce tournant linguistique dans les sciences de la nature entretient des rapports étroits avec celui de la philosophie, juste antérieur de deux décennies environ. Pour l’intelligibilité de notre siècle, le fait d’avoir mis en lumière ce point de concordance nous paraît décisif. Alors que Rashevsky resta toujours juste en-deçà de ce choix tout en s’abreuvant aux sources de la topologie la plus contemporaine, Woodger a été le premier à importer des considérations logicistes à l’intérieur de la biologie théorique. Il l’a fait prématurément, pourrait-on dire, au regard de l’histoire. Chez lui, le formalisme était traité comme le produit d’une axiomatique munie de ses règles syntaxiques. Il ouvrait ainsi la voie à la discrétisation des formalismes quinze ans avant le premier usage de l’ordinateur pour la morphogenèse, dans lequel celui-ci servira pourtant encore au calcul approché d’un modèle continuiste. Il ouvrait aussi la voie à la conjonction future entre les formalismes de modélisation de Lindenmayer et les théories des langages formels de la linguistique structurale comme de l’informatique théorique. Accessoirement, il ouvrait enfin la voie à la bio-informatique moléculaire de Walter R. Stahl, c’est-à-dire à ce qui allait devenir cette « bio-informatique » actuellement hégémonique, héritière en cela des 50 ans d’hégémonie de la biologie moléculaire.

Pour finir, avec la confirmation de cette tendance à la convergence, notre problématique pourrait prendre désormais un sens légèrement différent : de façon plus générale cette fois-ci, le destin contemporain des formalismes dans les sciences non-exactes passe-t-il, a-t-il passé, ou peut-être même va-t-il passer, par une semblable scansion ? Autrement dit, ce que nous avons décelé pour la biologie, avec la plante, et pour la science de l’environnement plus largement, avec l’écologie forestière, est-il un phénomène général ? A priori, cela se pourrait fort bien, du fait que l’outil informatique est fortement non spécifique à un domaine de la science. Et c’est bien lui qui a joué le rôle clé dans les convergences que nous avons rapportées. De surcroît, la modélisation s’est étendue à tous les grands champs de la science, dont celui des sciences humaines. Pour contribuer à une étude de l’histoire de la modélisation contemporaine, il nous faudrait donc poursuivre notre enquête et tester une semblable hypothèse de convergence sur un ou plusieurs secteurs des sciences humaines. Alors seulement, une plus grande généralité pourrait être donnée à notre constat : l’ordinateur contribuerait à une redistribution des disciplines, à une refondation de leurs rapports et à une mixité des modèles comme à une intégration des approches. Sans nous consoler définitivement de cette perte du réel due aux grands tournants linguistiques de notre siècle comme à leurs déracinements corrélatifs, il contribuerait ainsi peut-être à la co-construction d’un sens commun du second genre encore à penser par la philosophie et l’épistémologie.

Notes
2110.

En particulier [Varenne, F., 2003a] et [Varenne, F., 2004a].

2111.

Voir notre proposition d’une « triade épistémologique » dans les dernières pages de [Varenne, F., 2004a].