c. Le congrès de Tokyo, 1960

Au fil de son expérience des statistiques, Lorenz est saisi par le doute quant aux possibilités de faire des prédictions valables. Au congrès de Tokyo en 1960, il présente un exposé, sorte de bilan des investigations réalisées au MIT, intitulé "The statistical prediction of solutions of dynamic equations", critiquant ainsi les interprétations des suggestions faites par Wiener 1478 . Il explique que les projets de statistiques visent à déterminer des procédures de prédiction utilisant des données d’un passé assez proche. Pour tester leur capacité prédictive, des cartes météorologiques sont dressées numériquement, par simulation d’un modèle connu, afin de déterminer si on peut "re-prédire" la situation à partir d’une partie des résultats des calculs, par régression linéaire 1479 . Sa conclusion est qu’il ne faut pas espérer mieux que 24 heures de prédiction et sous-entend que d’autres méthodes sont préférables (par exemple, la prévision statistique non linéaire ou les méthodes dynamiques, rivales). Par des expériences numériques, Lorenz (et son groupe) tentent donc de répondre à une question méthodologique, sans forcément convaincre ses collègues 1480 .

Lorenz s’était proposé depuis 1956 de mettre en question la valeur des pronostics statistiques. Il était parvenu à se convaincre qu’il fallait un comportement non périodique pour cela. L’exposé de 1960 est l’aboutissement de ses recherches d’un système dynamique, 12 équations différentielles, avec un comportement a priori non périodique et dont la statistique ne peut pas faire de prédictions correctes. L’arrivée de l’ordinateur au laboratoire, en 1958, a transformé le projet précis mais difficilement réalisable de 1956, en une problématique nouvelle.

Au colloque de Tokyo, c’est une seconde question qui est débattue dans la discussion finale : celle de la "prédictibilité". Autrement dit, quelle est la capacité des méthodes à donner des prévisions ? Et sur quel intervalle de temps sont-elles valables ? Introduisant le débat, le professeur Arnt Eliassen évoque deux aspects importants : les problèmes d’instabilité (dans les modèles barocliniques et barotropiques utilisés), et les résultats de Phillip Thompson relatifs aux limites de prédictibilité. Eliassen est perplexe :

‘"La signification de cette instabilité n’est pas claire pour moi parce qu’on ne voit pas dans l’atmosphère, des perturbations se développant à partir de très petites perturbations initiales […], mais on voit plutôt un champ complètement perturbé tout le temps et des interactions non linéaires entre différentes composantes." 1481

Il doute de la pertinence des instabilités comme facteur limitant car cela n’est pas conforme à ce qui est observé communément en météorologie. Thompson, en 1957, avait posé les questions relatives à l’organisation et à la collecte des données pour la prévision : quelle répartition des relevés et quelle précision adopter, pour faire des prévisions, de manière économique 1482 . La question de la "prédictibilité" était apparue déterminante dans sa problématique. Thompson avait établi un taux de contamination des erreurs sur les données initiales dans la prévision, pour en déduire l’horizon de prédiction. Il envisageait deux méthodes : une étude expérimentale avec des comparaisons de multiples intégrations des modèles, pour des états initiaux ou des données variables, ou bien un traitement plus analytique. Il évoque une possible "indétermination fondamentale du comportement de l’atmosphère" 1483  ; sa thèse principale et de prouver qu’une densité accrue de stations météorologiques ne va pas réduire significativement ce qu’il appelle l’erreur inhérente, due aux incertitudes de l’état initial 1484 et qu’il existe une limite aux prédictions, qu’il évalue à une semaine.

Saisissantes, ces affirmations se retrouvent au coeur des échanges de Tokyo. Deux réponses sont apportées. Lorenz signale qu’ils ont réalisé une série de 40 simulations du modèle qui a servi à sa démonstration de l’insuffisance des méthodes statistiques, avec des conditions initiales différentes (mais proches). 39 ont divergé rapidement par rapport à la première. Il propose d’adopter une définition : un système est dit instable lorsque des "petites erreurs introduites dans celui-ci croissent avec le temps" 1485 . L’ordinateur est pleinement intégré dans la pratique météorologique et détermine ici une notion opérationnelle d’instabilité.

A l’opposé, Charney est plutôt optimiste et attend une "agréable surprise" du côté de la prévision météorologique.

‘"Maintenant, il n’y a aucune raison en principe, si nous ne prenons pas en compte les sources d’énergie, pour que les méthodes numériques ne prédisent pas le cycle de vie d’un système singulier." 1486

Charney est confiant, parce que dix ans auparavant, la simulation d’un modèle avait montré des mouvements "qui ressemblaient aux mouvements naturels" 1487 . Mais il est prudent : "les prévisions pourraient ne pas être très précises" 1488 . En tout cas, il pense que les théories doivent porter, non pas sur les instabilités, mais sur les évolutions vers des états stationnaires ou les oscillations.

Notes
1478.

[LORENZ, N., 1960a], Lorenz met le précédent exposé de Wiener en exergue, pour en relativiser la pertinence à l’égard du point de vue du météorologiste. Les théories de Wiener s’appuient en effet sur la connaissance de tout le présent et le passé d’un phénomène pour proposer des prévisions (p. 629-630).

1479.

Pour les détails sur le modèle utilisé : [LORENZ, N., 1960a], p. 629-630.

1480.

Ils n’expriment pas de doutes quant aux simulations numériques elles-mêmes, ni sur leur nature. Dans la discussion suivant l’article de Lorenz, il s’agit d’une certaine perplexité à l’égard de ce que ce genre de résultats peuvent prouver (par exemple : y a-t-il eu une analyse de l’influence des conditions initiales ?) ([LORENZ, N., 1960a], p. 635). Pour les problèmes de climatologie, la méthode statistique est pleinement réaffirmée dans la discussion finale du colloque, [SIGEKATA, S., 1960].Voir [DAHAN, A., 2000], p. 410.

1481.

"The significance of this instability is not clear to me because we do not see, in the atmosphere, disturbances developing from a very small initial disturbance on the straight current, but we rather see a fully disturbed field all the time and non-linear interactions between various components.", [SIGEKATA, S., 1960], p. 645.

1482.

[THOMPSON, P.D., 1957]. Philip Duncan Thompson est un officier de l’US Air Force, associé au programme Joint Numerical Weather Prediction Unit, mis en place à la suite du programme de Princeton, pour réaliser effectivement des prévisions sur le territoire américain. Il est responsable de la section de Développement. [ASPRAY, W., 1990], p. 148.

1483.

"A part of this error, conceivably, might also be due to some fundamental indeterminacy in the behavior of the atmosphere.", [THOMPSON, P.D., 1957], p. 286.

1484.

"[...] we see that doubling the cost and oervall density of observing stations would all but eliminate the increase of inherent error", [THOMPSON, P.D., 1957], p. 287.

1485.

"[…] small errors placed upon it will grow with time.", [SIGEKATA, S., 1960], p. 647.

1486.

"Now there is no reason in principle, if we take into account energy sources, why numerical methods should not be capable of predicting the life cycle of a single system.", [SIGEKATA, S., 1960], p. 648. Il ajoute : "I think we are very close to being able to predict a single complete life cycle of an actual system in the atmosphere."

1487.

"that looked like nature", [SIGEKATA, S., 1960], p. 649.

1488.

"The forecast may not be very accurate.", [SIGEKATA, S., 1960], p. 648.