Une « vérification expérimentale » … par simulation

Par la suite, les auteurs proposent néanmoins ce qu’ils appellent une « vérification expérimentale » de ce modèle probabiliste à l’aide d’une simulation aléatoire. C’est-à-dire qu’ils sortent de la phase d’analyse des données expérimentales qui avait pur but de trouver, de cerner et d’ajuster le modèle probabiliste générant des valeurs intermédiaires non accessibles à l’expérience. Et ils entrent dans une phase de synthèse de données intermédiaires ayant pour fonction de vérifier a posteriori la pertinence du modèle.

Voici alors comment ils décrivent la fonction d’une simulation. Comme on le verra, par rapport aux deux premières conditions que de Reffye s’était fixées en 1976 pour que l’agronome-biologiste puisse estimer avoir recours à une « simulation sur calculateur », la nouvelle condition de « régénération de la variable aléatoire » semble bien nouvellement et directement transférée des méthodes de la recherche opérationnelle :

‘« La simulation consiste à restituer le phénomène observé à partir de la théorie choisie et de préciser l’influence des divers paramètres, c’est-à-dire de régénérer la variable aléatoire xi, connaissant sa loi de distribution f(x) (qui est l’hypothèse de travail), à partir de nombres aléatoires. Pour la simulation, nous avons utilisé la méthode de la transformation inverse (Naylor et Balintfy, 1966). » 1572

Aux yeux des auteurs, la loi de distribution (ici l’expression générique « f(x) » vaut pour la loi de probabilité pi de leur modèle) que la modélisation fractionnée et combinée a permis de mettre au jour empiriquement, puis d’ajuster à une formule mathématique close, doit, dans cette seconde étape, passer pour une « hypothèse de travail ». Cela peut paraître très surprenant parce qu’il s’agit en fait plutôt d’un résultat empirique faisant suite à une analyse de données armée de modèles intermédiaires. Mais il est vrai que, dans le cas de la phase de simulation aléatoire par régénération des événements dans leur individualité même, cette distribution ou loi de probabilité peut à son tour jouer le rôle symétrique d’une « hypothèse de travail » dans la mesure où il s’agit justement, dans cette seconde phase, de « régénérer » des données. Ces « données » nouvelles ne sont pas vraiment des « données » au sens où elles proviendraient directement de l’analyse empirique initiale. Elles sont des données « construites », si l’on veut bien nous passer cet oxymore, à partir du moment où la loi de probabilité n’est plus utilisée au niveau de sa distribution et de ses fréquences mais au niveau des événements empiriques qu’elle pourrait 1573 déterminer en réalité. On ne cherche plus à résumer la loi de probabilité par une formule mathématique et on ne la traite plus comme telle ; on la fait fonctionner comme ce qu’elle est d’abord lorsqu’elle est confrontée à l’empirie : comme une loi des aléas, des événements aléatoires. C’est là que la simulation est perçue comme plus empirique que la formulation abrégée et abstraite de la loi de probabilité : en mettant de côté les paramètres de la loi mathématique et en revenant aux événements élémentaires et réalistes du phénomène qu’elle détermine. En ce sens, les auteurs considèrent qu’ils ont affaire à de nouvelles données empiriques même si cela se fait après la constitution d’un modèle mathématique de probabilité.

Notes
1572.

[Parvais, J.-P., Reffye (de), Ph. et Lucas, P., 1977], p. 258.

1573.

Et non pas « qu’elle peut déterminer » et encore moins « qu’elle détermine en réalité » : pour une raison élémentaire de logique, la régénération ponctuelle d’événements aléatoires doit ne se présenter a priori que comme une reconstitution réaliste de la réalité et non comme une reconstitution de la réalité telle qu’elle s’est effectivement produite. En effet, la reconstitution aléatoire de l’aléa lui-même ne peut se donner qu’un réalisme faible comme idéal régulateur, c’est-à-dire un réalisme de ce qui est possible dans cette réalité visée, un réalisme du réel possible.