c. Mesurer l’information

La démarche de Shaw est très intéressante et assez analogue de celle de Rössler. Elle mêle une maîtrise des concepts utiles et bien balisés des systèmes dynamiques, une bonne connaissance de la théorie de l’information et une approche plus expérimentale, sur ordinateur analogique.

Comment Shaw introduit-il l’information dans l’étude des flots dissipatifs ? A l’origine, il y a une perception plus physique que mathématique de l’espace des phases du système, illustrée par cet extrait du texte de Shaw :

‘"Le Principe d’Incertitude nous assure qu’il y a un bloc de taille minimale dans l’espace des phases, qui est une constante physique de la Nature. Si deux orbites arrivent à l’intérieur d’un tel bloc, elles ne sont plus distinguables et l’information sur leurs origines distinctes est perdue. Ainsi la dimensionnalité est réduite et la ‘rigueur’ apparente des solutions formelles devra être modifiée si elles sont censées représenter la réalité physique observée." 673

Le principe d’incertitude implique donc la division de l’espace des phases en cellules de taille minimale 674 , appelées "état" en Mécanique statistique. Ceci a pour conséquence qu’un système évoluant dans un volume fini de l’espace des phases ne peut se trouver qu’en un nombre fini d’états. Il faut remarquer que le quadrillage proposé n’est pas un résultat original : Kolmogorov et Sinaï l’ont proposé pour l’espace des phases, mais sans rapport avec une discussion en termes d’information. Shaw l’ignore, vraisemblablement.

Sur le système de l’oscillateur harmonique amorti, Shaw explique de quelle manière il y a perte d’information.

Deux observateurs réalisent des mesures (avec une inévitable incertitude) à deux instants différents, 1 et 2, et localisent le système dans les volumes 1 et 2 de la figure. Or, en laissant évoluer le volume 1 avec le temps, il se contracte en un volume 3, plus petit que 2 : cela signifie que, à ce moment-là, l’observateur 1 peut donner les conditions initiales, avec plus de précision que l’observateur 2. "De l’information accessible a été détruite par le flot contractant dans l’espace des phases" 675 .

Pour le système de Van der Pol, en se situant à l’intérieur du cycle limite (loin du bord), la situation est l’inverse de la précédente. Le volume de l’espace des phases s’étend, de l’information est créée.

Shaw fait alors remarquer que cette formule n’est rien d’autre que l’expression de l’exposant de Lyapounov de l’itération. La propriété de sensibilité aux conditions initiales, mesurée habituellement par λ, est donc synonyme ici d’une production d’information.

Le calcul du paramètre λ est ensuite étendu à des systèmes en dimension supérieure, au système de Lorenz en particulier. Le contact entre les itérations et les systèmes différentiels est opéré, naturellement, par le biais d’une section de Poincaré. Mais il est très clair que Shaw ne se cantonne pas à établir une application de Poincaré : il s’inscrit explicitement dans une perspective très proche de Rössler et Williams (mais ne cite pas Guckenheimer) au sujet des relations entre attracteurs et itérations. Il annonce déjà que la structure en "variétés branchées" est importante 676 .

Sur l’attracteur de Lorenz, le calcul de λ peut se faire facilement, grâce à une section de Poincaré 677 . En intégrant le temps de parcours de l’attracteur, il définit et calcule le taux de croissance de l’information par unité de temps : λ t = 1,19 bits/sec pour l’attracteur de Lorenz.

Tout ceci se fonde en grande partie sur des calculs numériques, effectués sur diverses itérations. Mais le point intéressant est la vérification expérimentale de la pertinence de λ t , le taux de croissance de l’information par unité de temps, par des expériences sur ordinateur analogique.

Son procédé est simple : sur un ordinateur analogique Systron-Donner 10/20, de résolution en tension 1-2mV, Shaw lance cinquante fois le calcul d’une trajectoire du système de Lorenz en partant des mêmes conditions initiales. Sachant que l’amplitude de variation des voltages est de 15V avec le paramétrage choisi, la quantité d’information initiale est H in =log 2 (15/0,002) ~13 bits. Les positions des cinquante points sont repérées à des intervalles réguliers multiples de 1/ λ t qui correspond au temps nécessaire pour la création d’un bit d’information. La figure montre la dispersion des orbites, de plus en plus grande au fil du temps, et déjà vers 11-12 unités il n’y a plus vraiment de localisation. Ce n’est qu’une corroboration statistique, approximative et limitée par le temps nécessaire à ces opérations, mais ces indications valident "expérimentalement" au moins la démarche de Shaw.

Notes
673.

"The Uncertainty Principle assures us that there is a minimum block size in phase space, which is a physical constant of Nature. Should two orbits arrive within such a block, they are no longer distinguishable, and the information represented in their separate origins is lost. Thus the dimensionality is reduced, and the seeming "rigor" of the formal solutions will have to be modified if they are to represent observed physical reality.", [SHAW, R.S., 1981], p. 83.

674.

Shaw fait ici référence au "logon" suggéré par Gabor dans le cadre des canaux de communications et résultant du principe d’incertitude. Nous renvoyons au texte de Dennis Gabor, de 1946 [GABOR, D., 146] et au chapitre 4, p. 266-274 de la thèse de J. Segal [SEGAL, J., 1998].

675.

"Some accessible information has been destroyed by the contracting flow in phase space" [SHAW, R.S., 1981], p. 84 (en italique dans le texte).

676.

Ce sont les conceptions avancées par R. Williams en 1976, cf. p. 202.

677.

D’autant plus qu’en s’appuyant sur le théorème d’Oseledec, Shaw affirme que λ est indépendant du choix de la section (tout comme les exposants de Lyapounov, il s’agit d’une propriété topologique).