Ce que l’on gagne à simuler aléatoirement l’aléatoire

Dans l’article de 1977, les auteurs insistent pour finir sur l’intérêt qu’il y a à disposer de la capacité à régénérer intégralement les distributions des événements aléatoires et pas seulement leurs moyennes ou leurs variances, comme c’était le cas pour les modèles à équations mathématiques. La simulation a permis selon eux de « vérifier la justesse de l’analyse mathématique » 1585 . C’est à ce titre qu’elle passe pour une expérience : elle a le pouvoir de corroborer une vision théorique mais dans la mesure même où elle est une reconstitution plus « exacte » du phénomène réel, reconstitution pourtant elle-même sous-tendue par l’hypothèse théorique. En effet, à partir de la représentation logico-mathématique, il est possible de comparer les résultats simulés avec les résultats théoriques, c’est-à-dire deux produits de la même représentation logico-mathématique initiale mais n’émanant pas de la même interprétation de cette représentation. Pour les « résultats théoriques », il s’agit d’une interprétation prioritairement abstractive, condensante, centrée sur les moyennes des phénomènes et sur les paramètres des modèles mathématiques (faisant abstraction du temps et de la diversité effective des types d’événements), alors que pour les « résultats simulés », il s’agit d’une interprétation constructive doublée d’un usage régénératif au niveau des événements temporels et ponctuels des mêmes modèles. Or, la restitution simulée est ici moins abstraite que le modèle mathématique abstractif puisqu’elle conserve et utilise au moins une des dimensions concrètes du phénomène initial comme support de sa manifestation : le temps. La représentation rencontre le phénomène et le touche pour ainsi dire au moins en cette dimension. La ressemblance d’aspect (si l’on veut bien considérer la temporalité d’un phénomène comme étant un de ses aspects) est donc plus grande dans la simulation que dans l’interprétation abstractive d’une modélisation mathématique faisant notamment abstraction du temps : la transfiguration abstractive de l’empirique y est moindre. Ce dualisme dans l’interprétation des modèles logico-mathématiques du programme autorise donc qu’une conséquence interprétative calculée du modèle en « vérifie » une autre.

Mais aussi, avec la simulation, la « représentation » est tout simplement plus « fidèle », selon les auteurs. Après avoir appliqué un test du χ2 sur les résultats simulés, ils s’expriment ainsi : « On conclut que la simulation représente fidèlement les processus de pollinisation. » 1586 Il en ressort plusieurs conséquences pour l’agronomie et la biologie. Ils en tirent notamment un argument en faveur de la mise en évidence d’une nouvelle caractéristique biologique du cacaoyer et que seule l’approche par simulation a permis de développer : « L’aspect des distributions est toujours identique et semble être une caractéristique du cacaoyer. » 1587 Un travail sur la seule moyenne ou même sur la variance n’aurait pas permis une telle analyse. La forme de la distribution en elle-même devient un caractère génétique. Ils rappellent que ce genre d’approche permet aussi de ne pas préjuger de la nature des vecteurs de pollens impliqués. C’est ce qui fait sa puissance alors même que les données expérimentales sont difficiles d’accès. L’insertion, dans le modèle, de l’aléa propre à l’échelle d’observation du phénomène réel permet de disposer d’une représentation plus précise ou plus « fidèle » 1588 de ce que l’on observe sans que l’on ait pour autant à décider de la nature des phénomènes microscopiques réels qui président à la manifestation macroscopique de cet aléa. Cette précision dans la représentation permet d’envisager l’évaluation des conséquences de divers traitements agronomiques qui, sinon, restaient difficiles à distinguer de l’hypothèse nulle. Dans une perspective pragmatique, cette majoration de la fidélité propre à la représentation scientifique ici construite se justifie par un gain en précision permettant lui-même un gain dans le pouvoir discriminateur des méthodes logico-mathématiques en général par rapport à celui de la seule analyse multivariée, notamment lorsqu’il s’agit d’évaluer et de comparer diverses pratiques culturales.

Notes
1585.

[Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 261.

1586.

[Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 260.

1587.

[Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 260.

1588.

Ce qui pourrait paraître paradoxal à première vue. L’insertion de l’aléa dans le modèle n’est-elle pas gage d’imprécision ? Retrouvant sur ce point l’intuition de R. A. Fisher au sujet des modèles statistiques, des spécialistes en recherche opérationnelle, comme Dimitri N. Chorafas par exemple, ont assez vite considéré que l’approximation est affaire de décision eu égard à l’échelle privilégiée : dans certains cas, le modèle déterministe est une approximation et c’est le modèle stochastique qui est plus « voisin de la réalité », [Chorafas, D. N., 1966], pp. 32-33.