Plan analytique

Après l’exposé du choix de l’objet, du type d’approche et des matériaux mobilisés, nous pouvons désormais fournir le plan annonciateur des parties qui vont suivre. Dans ce plan, le lecteur verra que nous avons cru pouvoir déceler trois grandes époques dans cette histoire. La première précède l’émergence de l’ordinateur, la deuxième décrit les premières réactions face à l’ordinateur, la dernière décrit l’évolution qui s’est accélérée depuis la mise à disposition d’ordinateurs plus puissants et surtout disposant de systèmes d’interface graphique performants. Trois mots-clés successifs indiquent ce qui fait la relative cohésion de chacune d’elle, comme aussi son articulation avec les autres : le déracinement, la dispersion, la convergence.

Dans ce travail, avant d’entrer de plain-pied dans la période qui nous intéresse, nous nous devions auparavant de restituer rapidement les quelques commencements de mathématisation de la forme des plantes tels que les siècles précédents nous les avaient légués. Sans prétendre étendre inconsidérément notre enquête dans le passé et dépasser ainsi les limites que nous nous étions fixées, nous nous devions de restituer la signification que leurs auteurs leur conféraient de manière assez générale. Car c’est par rapport à cette interprétation antérieure du statut des mathématiques dans la forme des plantes que le début du 20ème siècle s’inscrit en nette rupture. Avec le premier lieu de naissance de la méthode des modèles mathématiques dans les sciences de la vie, en l’occurrence avec le développement des modèles statistiques, on nie en effet tout enracinement du formalisme dans le réel. Les mathématiques peuvent dire le réel vivant dans ses formes, mais à condition qu’elles deviennent descriptives. Les caractères morphologiques sont formalisés, mais c’est à une morphologie descriptive que l’on doit se cantonner. De même, avec la difficulté, puis avec le renoncement momentané, à dire la « loi de croissance absolue » et avec la solution alternative qui consiste à rechercher l’expression formelle d’une « croissance relative » ou « allométrie », cette idée de déracinement se confirme. La méthode des modèles se prépare donc également par cette voie-là, quoique plus indirectement. Pour cette époque, nous entrions sur un terrain où l’histoire générale de la modélisation mathématique dans les sciences de la vie et de l’environnement intervient au premier chef. Mais les travaux d’histoire à ce sujet en sont encore à leurs débuts et restent, en grande partie, à écrire (voir notre état des lieux, dans l’annexe A, toutefois). Pour tâcher de rendre compte, malgré tout, et dans ses grandes lignes, de la naissance de la méthode de modèles, comme cela était un objet trop vaste pour nous, nous avons choisi de nous pencher sur les approches de quelques personnages emblématiques déjà reconnus, comme Ronald. A. Fisher ou Georges Teissier, sans prétendre entrer dans le détail de l’histoire des concepts, et en ayant conscience des limites de cette perspective. En tout cas, nous l’avons fait en privilégiant toujours l’angle de vue que nous conférait notre problématique, c’est-à-dire en focalisant notre attention sur la forme et le sens que ces personnages influents donnaient à la formalisation, en particulier à la formalisation des plantes à laquelle il se trouve qu’ils ont fortement contribué.

Mais donc, faire place à des formalisations du hasard ou à des fictions commodes (et non plus directement explicatives), comme le firent ces premiers tenants des modèles, avait de quoi rebuter ceux qui tenaient à la méthode ancienne héritée de la mécanique analytique. Ces premiers déracinements, même s’ils se généralisèrent et triomphèrent en fait sur le terrain, en particulier avec les développements de la biométrie et des plans d’expérience de l’agronomie, furent l’objet de vives réactions et résistances, surtout dans les pays anglo-saxons. La méthode des modèles statistiques ou allométriques permettait en effet de décrire, dans les morphologies des plantes, ce qui était mesurable, ce qui pouvait être rapporté à une métrique, mais pas ce qui semblait ressortir d’un mécanisme de mise en place de formes qualitativement différentes, hétérogènes donc, et procédant pourtant visiblement les unes des autres au cours de la croissance. Des résistances de type physicaliste et réductionniste vont donc voir le jour pour tâcher de résoudre ce problème de morphogenèse.

Plus significatif encore et inédit pour l’époque, face à l’insuffisance des styles de formalisation proposés par cette première forme de résistance, commence à se développer un autre type de résistance que nous qualifions de mathématiste. Selon elle, si ce n’est plus par le bas, par la physique, que l’on peut expliquer à la place de décrire, ce sera peut-être par le haut, c’est-à-dire par les idées mathématiques a priori… D’où des tentatives curieuses comme une axiomatisation directe, c’est-à-dire sans substrat pour référence, des règles supposées de la morphogenèse. Mais on aurait tort de voir là un acquiescement qui anticipe simplement la généralisation de la méthode des modèles et sa manière de mathématiser directement : il s’agit plutôt d’une des dernières tentatives de demeurer dans la perspective de cette idée selon laquelle les mathématiques théorisent et parlent de l’essentiel.

Tel est donc le tableau que l’on peut dresser peu avant l’émergence du calculateur numérique. Or, cette émergence est contemporaine et en quelque manière détermine la deuxième naissance de la méthode des modèles dans les sciences de la vie. C’est en fait sa véritable époque de naissance au sens strict. L’expression « méthode des modèles » n’est d’ailleurs proposée qu’autour de 1952. C’est à partir de ce moment-là qu’elle se diffuse dans pratiquement tous les domaines des sciences de la vie et de l’environnement. Appuyé par l’analogie de l’automate (l’ordinateur comme modèle) comme par la diversité inédite de ses usages (l’ordinateur comme calculateur de modèle), la méthode des modèles s’étend considérablement et devient la pratique la plus répandue dans les formalisations d’après-guerre, tant en dynamique puis en génétique des populations, qu’en écologie, physiologie ou agronomie… Dans le cadre de la cybernétique et de la recherche de ces systèmes auto-régulés qui ont la particularité d’être isomorphes les uns aux autres d’un point de vue mathématique (systèmes artificiels ou naturels), la « méthode des modèles » est en effet reconnue dans sa généralité comme dans la gratuité et donc dans la possible dispersion de ses motivations. Ce terme de dispersion nous semble donc bien caractériser l’époque qui commence ici. Ainsi, même s’il est parfois l’objet d’un culte ou d’une récupération ontologisante témoignant d’un retour du refoulé (le deuil du déracinement), dans les travaux les plus sérieusement applicables, le recours au concept d’information permet en fait de déraciner un peu plus largement encore les formalismes, de les extraire du réel qu’ils expriment. Il se rendent ainsi davantage mobiles et mutuellement interchangeables.

Mais en ce qui concerne la forme des plantes, ce que va apporter l’ordinateur dans les premières années de sa mise en place n’a pas directement de rapport avec cette vague cybernétique. L’ordinateur apporte plutôt de nouvelles possibilités de prendre en compte ce caractère qualitatif, c’est-à-dire résistant à toute condensation symbolique et formelle, de la morphogenèse et de le faire répliquer ensuite par la machine au moyen de simulations dites numériques. Il est d’ailleurs remarquable que ce soient quelques uns des pionniers de l’informatique moderne qui aient proposé les premiers usages de l’ordinateur pour la formalisation et le traitement de la morphogenèse. Pourtant, ce premier tableau des simulations n’est pas non plus uniforme. À y regarder de près, comme dans les modélisations mathématiques alors en plein essor dans les disciplines connexes, les simulations numériques de la morphogenèse naissent en ordre dispersé. Quand un auteur valorise encore le formalisme différentiel dans l’esprit de l’embryologie organiciste des années 1930, l’autre voit plutôt la proximité entre des questions de calcul en physique et la possibilité que donne l’ordinateur de construire de manière discontinue des formes ramifiées au moyen de cellules élémentaires et de règles locales et réitérées. Un dernier enfin fait assumer à l’ordinateur la gestion du hasard des rencontres des cellules en un scénario qui pourrait hypothétiquement ou fictivement présider aux mécanismes de la morphogenèse. D’entrée donc la dispersion est de rigueur là aussi. Cette dispersion des simulations spéculatives ne sera pas levée de sitôt par une confrontation avec l’expérience : ces modèles de simulation inchoatifs sont bien trop grossiers pour prêter à une quelconque calibration sur des plantes réelles. Et leurs promoteurs ne sont pas biologistes de formation mais mathématiciens.

À l’époque, en ce qui concerne le traitement formel de la plante, les biologistes mathématiciens et les biophycisiens de formation se retrouvent en fait plutôt du côté de ceux qui résistent. Mais c’est précisément à la dispersion des méthodes de formalisation qu’ils résistent cette fois-ci. En un sens, ils ont accepté entre-temps le déracinement qu’on voulait leur imposer dans l’époque antérieure. Mais ils l’acceptèrent comme Einstein l’accepta peu avant : sans renoncer pour autant à l’idée mathématiste de rechercher une loi unique et monoformalisée de la morphogenèse. Nos formalisations sont des modèles (là sera d’ailleurs le troisième lieu de naissance de la méthode des modèles en biologie), et nos modèles sont des fictions, pensent-ils. Mais, ajoutent-ils, il y a une fiction meilleure que les autres. Il faut donc la chercher car c’est la théorie vraie. Ils interprètent désormais le fait du déracinement comme un blanc-seing pour un saut vers le haut, vers l’abstraction et les formalismes les moins intuitifs. Il est à ce sujet tout à fait instructif de constater que ce sont les mêmes auteurs qui, d’une époque à l’autre, passent d’une volonté d’enracinement à une volonté d’abstraire. Dépendre du ciel ou s’enraciner dans la terre, c’est au fond toujours se fixer. C’est surtout éviter l’errance et la dispersion anarchique. Ainsi, de la terre des atomes au ciel des idées, le chemin n’est pas si long pour cette biologie théorique d’après-guerre.

D’autre part, dans ces mêmes années 1960, un renouvellement récent de la physique par des questions de thermodynamique (bien que certaines de ses branches remontent au 19ème siècle), notamment avec la reprise de la notion d’entropie en rapport avec la notion d’information, ouvre un autre front dans le combat contre la dispersion des modèles et des simulations. Cette dispersion s’impose toujours plus en effet et irritent les chercheurs en quête d’unité. Elle est augmentée pratiquement, et en quelque sorte légitimée conceptuellement, par l’existence même des ordinateurs et des simulations. Ce nouveau front de résistance se compose de différentes recherches qui portent sur les mécanismes supposés conjoints, à l’échelle physique, des ramifications fluviales et végétales, puis sur des questions de phyllotaxie théorique appelée encore phytomathématique. Dans ces approches, c’est donc un physicalisme modernisé, rendu plus subtil et « informé » que le précédent, qui combat la dispersion en recherchant une théorie ou un modèle mathématique optimal pour la morphogenèse des plantes. Mais là encore, aucune calibration ne vient réellement sanctionner ce travail qui reste théorique pour l’essentiel.

En fait, la dispersion se confirme tant sur le plan des conceptions que sur le terrain. Comme il y a une dispersion de fait dans les modèles spéculatifs à visée unifiante, et ce malgré le fait que leurs sectateurs combattent justement cette dispersion, il y a aussi une dispersion au niveau des modèles pragmatiques sur le terrain. Dans ce contexte pourtant, la dispersion est mieux acceptée. Elle est même revendiquée, car elle sert aussi des arguments philosophiques voire politiques dont nous devrons saisir la teneur et la portée. Après la guerre, les méthodes statistiques anglo-saxonnes se répandent en effet presque partout et notamment dans l’agronomie française. Cette importation massive, et tardive, de méthodes statistiques intervient au moment même où la biologie théorique fait encore entendre sa voix aux Etats-Unis. Lors de la reconstruction, la France qui modélise va s’abreuver aux deux sources. C’est notamment à cette filiation retardée et à une jonction entre ces deux pratiques d’âges différents que l’on doit l’originalité de l’école de modélisation française. Nous focalisant plus particulièrement sur quelques uns des travaux de cette école en modélisation de la morphogenèse, puisqu’ils vont par la suite former un des contextes de développement de la simulation de la forme des plantes en France, nous aurons l’occasion de voir qu’elle ne réussira pourtant pas vraiment à prendre en compte formellement ce phénomène de manière à ce que le modèle soit calibrable.

En fait, pour avoir les premiers modèles de morphogenèse calibrés sur des arbres réels, il faut attendre le début des années 1970. Surtout, de manière assez remarquable, car réitérée par trois fois dans des lieux différents, la possibilité de cette calibration ne pourra naître qu’au moyen, non de modèles mathématiques, mais de modèles de simulation sur ordinateur. Et cela ne sera possible qu’après une certaine évolution des ordinateurs, des langages et des périphériques graphiques. C’est donc à partir de ce moment-là que nous entrons dans une troisième époque : l’époque des convergences.

Il s’agit bien sûr d’abord d’une convergence des modèles de simulation avec l’expérience. Et là, l’avance de la recherche française peut être expliquée par son choix de recourir à une approche fondée sur une connaissance botanique bien précise née en son sein à la fin des années 1960 : celle des modèles d’architecture. La possibilité de procéder de manière permanente à des recherches en forêts tropicales, elle-même liée à son passé colonial, plaçait de toute façon la France en position favorable pour qu’émerge chez elle une telle approche. Mais il a fallu une problématique agronomique bien particulière pour que l’idée vienne de passer outre les limitations alors reconnues des modèles statistiques et de se servir de la simulation de l’architecture. C’est principalement là l’œuvre d’un homme, isolé au départ dans sa station agronomique de Côte-d’Ivoire. Nous en retracerons donc plus particulièrement la biographie intellectuelle jusqu’au point de voir ses travaux submergés par ceux de ses élèves et de ses collaborateurs de tous horizons. On verra ces productions scientifiques s’agréger puis graviter dans un réseau désormais étendu et ramifié tel qui s’est constitué à partir des premiers modèles conçus en Côte-d’Ivoire.

Dans les logiciels de cet ingénieur agronome, la convergence avec l’empirie se double en effet dès le départ d’une convergence entre modèles mathématiques à l’intérieur des dispositifs et des programmes de simulations qu’il nous faut désormais appeler pour cela simulations informatiques plutôt que simulations numériques. Non sans que quelques vicissitudes ne viennent l’atteindre, cette convergence entre modèles, entre épistémologies donc, va elle-même occasionner trois types de convergence particulière entre disciplines bien éloignées auparavant et sur le sens desquels nous reviendrons.

Cette troisième époque sera donc bien celle de la cristallisation de différents secteurs en une sorte de discipline transverse ou de compétence transdisciplinaire. Elle aura été occasionnée par une nouvelle méthodologie de modélisation, elle-même en grande partie permise par l’émergence de l’ordinateur. C’est cette structuration inédite de la recherche et de la production de solution technique que nous avons particulièrement voulu mettre en lumière et comprendre en focalisant notre attention sur la naissance et le développement du laboratoire AMAP du CIRAD, au cours de cette dernière époque (1971-2003). Nous avons étudié ce cas par contraste avec ce qui se fait ordinairement en modélisation de la forme : sur la fin, nous avons donc plus particulièrement raconté l’histoire d’une solution qui finit par fonctionner, qui abandonne les spéculations et devient de la science en ce sens. Même si cela pouvait sembler nécessaire à l’exposé de notre troisième époque, nous avons donc choisi de ne pas poursuivre la description détaillée et conjointe des modélisations physicalistes alors qu’elles ne manquèrent pas non plus de se développer entre-temps. Car leur essor ne s’est fait qu’à la faveur des évolutions de l’électrochimie ou des connaissances sur les quasi-cristaux, par exemple, c’est-à-dire à l’occasion de propositions d’analogies nouvelles mais faites sur un mode ancien. Ces modélisations procédèrent de l’intérieur de la physicochimie et de son évolution propre, comme ce fut le cas pour les spéculations sur l’entropie dans les années 1950 et 1960. Autrement dit, elles sont restées spéculatives et analogiques. Surtout, elles ne concernèrent jamais la forme de la plante en totalité, au contraire des modèles de simulation architecturale. À notre connaissance, comme les modèles théoriques de naguère, aucune n’a été calibrée sur une architecture de plante réelle en totalité, et aucune ne permet donc encore une prise instrumentalisante sur la nature. Du point de vue méthodologique et épistémologique, elles n’apportèrent donc rien de nouveau par rapport au tableau que l’on pouvait dresser des différentes propositions en présence à l’époque antérieure.

Au terme de cette introduction, nous voudrions signaler que c’est à dessein que nous nous sommes passé de recourir trop systématiquement aux oppositions convenues entre théorie et expérience et surtout à celle qui a trop souvent cours entre modèle descriptif et modèle explicatif, et par laquelle on pense avoir tout dit. En projetant ainsi des a priori massifs sur des distinctions qui, à l’analyse, se révèlent souvent plus fines, nous nous serions condamné à ne pas voir certains des moteurs imprévisibles d’une histoire complexe, d’autant plus qu’un des résultats de ces travaux de simulation récents, dont nous tâchons justement de comprendre ici l’émergence et le sens, est la remise en question du caractère évident de la distinction entre expliquer et décrire, ou entre expliquer et prédire, si l’on préfère.