Statuts des divers formalismes avant l’ordinateur

Rétrospectivement, il nous faut dire que l’usage le plus ancien du terme « modèle » dans le domaine de la représentation mathématique des formes nous vient incontestablement des mathématiques descriptives de la biométrie anglo-saxonne, et notamment des travaux de R. A. Fisher. Il y a alors modèle parce qu’il n’y a justement pas théorie, parce qu’il n’y a pas, dans cette mathématisation, la représentation d’un scénario réaliste sous-jacent et qui prétendrait représenter le fonctionnement des éléments du réel d’une façon certes idéalisée mais de surcroît globalement ressemblante. Au contraire, avec la « loi hypothétique », il s’agit tout au plus de faire exister dans des mots quelque chose comme une « matrice de causalités » pour reprendre la terminologie de Fisher, c’est-à-dire une construction verbale dont les effets calculables soient structurellement similaires à ceux que l’on peut observer empiriquement à l’échelle des grands nombres. Cette similarité structurelle n’est que statistique. Elle n’a même pas besoin de s’autoriser d’une isomorphie sous-jacente. Le caractère uniquement informationnel de ce que rassemble en elle la « loi hypothétique » selon Fisher indique bien l’origine et la visée d’abord purement opérationnelle de cette technique d’extraction et de réduction de l’information empirique : il s’agit de faire parler l’expérience, d’entendre tout ce qu’elle dit mais rien que ce qu’elle dit. Il s’agit de mettre en forme en notre esprit ce qui n’est d’abord que cacophonie du fait de la complexité (au sens d’une intrication des chaînes de déterminismes) des phénomènes observés.

Cependant, l’analyse statistique des données hérite de la biométrie son désintérêt pour l’ontogenèse. Elle s’inscrit exclusivement dans une problématique d’interprétation de l’évolution des formes du même par le passage à l’autre, par la phylogenèse, donc par la prolifération. Ainsi, la forme n’y est pas tant interprétée du point de vue de la croissance de l’individu mais par la multiplication des individus. Là est notamment l’origine de la morphométrie ou morphologie statistique. En ce sens, elle renonce à se poser des questions de morphogenèse au niveau même de l’ontogenèse puisque la cause ou plutôt l’événement contigu de l’événement présent qu’elle collationne est un événement qui s’est produit dans un autre individu. Elle explique le même par l’autre. Elle s’appuie sur la théorie darwinienne pour ce faire. C’est en quoi elle est relationnelle par principe. Cependant la possibilité d’une mesure, donc la mathématisation métrique, est fondée sur la supposition qu’est toujours possible un décompte des concaténations d’une toujours même partie valant alors comme mesure-étalon. Cette partie elle-même, afin de pouvoir décompter, réduire au nombre, les parties analogues de l’autre individu, est donc considérée comme homogène à ces autres parties. En ce sens, il n’y a pas de mesure sans homogénéisation forcée, sans identification préalable des différents. En dernière analyse donc, l’analyse statistique identifie qualitativement les caractères pour pouvoir distinguer, pour discriminer et non pas directement pour théoriser ou contempler. C’est en ce sens qu’elle est, dès le départ, à visée opérationnelle. En effet, en mesurant, elle compare ce qui est mathématiquement comparable. C’est-à-dire qu’elle procède à une homogénéisation transversale des caractères morphologiques des individus les uns par rapport aux autres, mais elle laisse ce faisant dans l’ombre l’hétérogénéité longitudinale de l’individu par rapport à lui même, d’un organe à un autre, et d’un moment du temps à un autre moment du temps, au cours de son histoire. Or, c’est précisément cette hétérogénéité longitudinale, avec ses « relations d’un à plusieurs », qui est rebelle à la mathématisation immédiate. Et c’est bien elle qui excite l’intérêt de la biophysique mathématique de l’époque. Il y a là une lacune que la biométrie ne comble pas.

On peut dès lors comprendre que c’est précisément pour trouver un horizon d’homogénéisation capable de briser ces différences qualitatives internes à l’individu que, la biophysique de la morphogenèse a d’abord été vigoureusement réductionniste : elle cherchait des théories fondamentalement physiques pour des phénomènes biologiques, tâchant ainsi de ramener les différences qualitatives à des atomes de réalité pour lesquels il n’y aurait plus de qualités différenciées qui ne soient constructibles mathématiquement. C’est là tout l’enjeu du mécanicisme. Aussi Rashevsky a-t-il conservé très tardivement le terme de « théorie » pour désigner ses multiples tentatives de formalisation que nous qualifierions aujourd’hui et sans hésiter de « modèle mathématique ». Il connaissait pourtant l’usage du terme de « modèle » qui avait cours dans les milieux de ce qu’il appelait la « biologie quantitative » et qu’il opposait alors à la « biologie mathématique » ou « biophysique ». C’est que la mathématisation devait, selon lui, d’abord passer par la théorisation physicaliste. La « théorie » désignait pour lui encore une représentation explicative idéalisée. C’était l’objectif final de toute science digne de ce nom. En tant que représentation cognitive, elle devait correspondre de près ou de loin aux processus sous-jacents. Elle devait les représenter, les refléter. Dans une théorie entendue en ce sens, la représentation se fait d’abord idéalisante et à destination des éléments constitutifs du phénomène global pour permettre la condensation abstractive. Selon le premier Rashevsky en effet, pour mathématiser la biologie, il faut aller aux choses, se les représenter et ensuite les idéaliser, mais il ne faut pas d’emblée, et comme de haut, idéaliser les seules relations entre les choses. Cela il le laisse à la thermodynamique, à la biométrie informationnelle ou à la dynamique des populations. Et il s’agit là toujours finalement d’une approche populationnelle. Car ayant idéalisé les choses elles-mêmes et leurs propriétés (d’où son physicalisme), les rapports que pourront entretenir ces éléments idéalisés seront ensuite nécessairement formalisables puisque standardisés, du moins le croit-il. L’expression mathématique des relations entre les choses viendra, selon lui, tout naturellement de l’idéalisation préalable des propriétés intrinsèques des choses en relation. La standardisation se fait donc à même la chose élémentaire dans cette perspective théorique (on y parle d’un réel élémentaire mais idéalisé il est vrai) alors qu’elle s’effectue plus en amont dans les relations entre les choses et dans l’impressionnisme et la nécessaire myopie de l’approche populationnelle, que ce soit en biométrie ou en dynamique des populations.

Il y a « théorie », dans ce cas-là, parce que ces idéalisations de choses sont supposées ressembler à une réalité qui forme par ailleurs comme un socle ultime. Ce socle ultime, car il y en a bien un pour la première épistémologie de Rashevsky, est le substrat physique. Une théorie biophysique est davantage vraie lorsqu’elle semble plus fondamentalement ancrée dans ce sol incontestable. On le voit, la première perspective de Rashevsky est encore très liée à la thèse classique de la vérité-correspondance alors que des contemporains biophysiciens comme H. J. Morowitz voyaient déjà la théorie « vraie » comme assimilable surtout à un système formel et déductif cohérent.

Cependant, ce socle physique, Rashevsky ne pouvait nier pour sa part qu’il vacillait depuis longtemps déjà. En tant que physicien de formation, il ne pouvait pas l’ignorer. Le mécanicisme de Loeb lui semblait déjà outrancier. N’oublions pas qu’il était doté d’une formation physique solide et qu’il avait travaillé sur les formalismes de la physique théorique récente, dont la théorie de la relativité qu’il avait longtemps méditée. Dès 1933, il a hésité lui-même à faire prévaloir les théories électriques de la cellule sur les théories mécaniques indiquant par là qu’invoquer la réduction de la biologie à la physique au début d’un siècle qui confirme le tableau d’une physique fragmentée avait quelque chose d’étrange. Certes, c’est le réductionnisme mécaniste qui l’a finalement emporté chez lui mais pour une décennie seulement. Il ne s’est pas maintenu fermement dans cette décision. Car l’obstacle qui a été pour lui le plus décisif est venu de l’intérieur de sa pratique de biologiste théoricien. Lorsqu’en 1948, il a voulu représenter mathématiquement des théories morphologiques et morphogénétiques précises et susceptibles de rencontrer l’expérience, il a cédé : il lui a semblé inévitable de se proposer des formalisations fonctionnelles intermédiaires. Par là, Rashevsky rejouait l’antique et cyclique rapprochement entre les sciences de la vie et les sciences de la conception humaine, mais dans un contexte nouveau, il est vrai : celui d’une perspective de mathématisation rigoureuse et opérationnelle à terme. Trouver des théories tout à la fois mathématiques et explicatives de la mise en place des dimensions métriques propres aux structures vivantes semblaient en effet une gageure pour la perspective mécaniste. Cet obstacle a été analysé par Rashevsky. Il était pour lui clairement dû à deux problèmes : 1- celui de la difficile, voire de l’impossible idéalisation préparatoire des éléments en cause ; 2- celui du caractère a priori inextricable voire de l’inexistence même des mathématiques qu’il faudrait mobiliser pour condenser en des formules ces éléments formels. À ce moment-là, les deux étapes du processus de théorisation mathématique qu’il préconisait d’ordinaire se trouvaient donc l’une et l’autre en panne d’inspiration. Et de la physique, il ne semblait pouvoir attendre pour une fois aucun salut. Car à quelle interprétation physique, à quelle expérience sensible idéalisée rapporter chacun des éléments intervenant dans ce processus de morphogenèse ? Et comment ensuite les combiner pour un hypothétique calcul ?

Le recours aux principes formels intermédiaires (de type ingénierie) n’est acceptable pour Rashevsky que parce qu’il peut les faire reposer sur un principe plus général de la « conception » ou « configuration optimale » [optimal design]. C’est pour cela qu’il se résout à introduire entre 1944 et 1948 ce troisième niveau de formalisation mathématique. Ce principe des principes, si l’on veut, est ici décisif en ce qu’il incarne le choix de fonder ce degré intermédiaire de formalisation non plus sur des emprunts mathématiques à la physique mathématique classique mais sur des emprunts formels à la physique appliquée et aux sciences de l’ingénieur. La notion biologique de « fonction » est ce qui lui sert de prétexte à l’introduction purement intuitive du concept d’optimum. Ne pouvant se représenter d’où vient la formule mathématique descriptive correspondant à l’expérience, le biologiste théoricien a encore la ressource de se représenter où elle va. Et Rashevsky décide que ce recours est légitime. La conceptualisation de la représentation mathématique ne ressortit plus ici à une construction à partir des éléments mais à une conception à partir de la finalité : « quelle relation faut-il pour que cette fonction soit assurée de façon optimale ? » est la nouvelle question que doit se poser le théoricien. Or, c’est la même question que celle que se pose le concepteur ou l’ingénieur devant son cahier des charges.

La conséquence de cette ouverture aux sciences appliquées est la renonciation momentanée à la fondation sur le réel du propos formel. La représentation mathématique n’est plus construite de manière supposée analogue aux phénomènes qu’elle représente, elle est appelée par la fonction qu’ils doivent remplir. Elle se conçoit à partir de sa fin, donc ici de sa finalité biologique. Des concepts contemporains, produits dans de tout autres contextes, comme celui de « canalisation du développement » ou de « créode », vont être utilisés pour confirmer un temps cette formalisation par le haut.

Mais David Cohn a bien vu que pour que cette formalisation par le haut ne dérive pas de nouveau vers des considérations trop abstraites, trop générales, trop peu testables par l’expérience, il fallait poursuivre le rapprochement vers la pratique de l’ingénieur en l’étendant du transfert ponctuel de formalismes que proposait Rashevsky à un transfert de toute la méthodologie de conception d’un « système » fonctionnel. Mais pour cela, il suffisait selon lui, dans un premier temps, de « disséquer » fonctionnellement la morphogenèse globale en différentes morphogenèses particulières et à visée chaque fois optimale, pour, dans un second temps, en reconstituer le système. Mais Cohn fait ici l’hypothèse implicite lourde que l’on a toujours ce faisant le moyen de recombiner ces fonctions formalisées. Or, ce sont ici les fonctions qui ont pris le rôle qu’avaient les éléments idéalisés dans la biophysique de Rashevsky. Le problème de la combinabilité est-il pour autant résolu ? Ne l’a-t-on pas seulement déplacé ? Suffit-il de se donner un bon système (à identification hydraulique ou électrique patente comme c’est le cas de la ramification vasculaire 448 ) qui réussit à cette méthode pour en avoir montré toute la généralité ?

Notes
448.

Rappelons en effet que, dans cette perspective-là, on peut toujours raisonner sur les résistances au flux (sanguin ou de sève) et que ces résistances peuvent s’additionner analytiquement pour former l’équivalent mathématique du système résistif global.