L’entropie

C’est dans un contexte très différent que le concept d’entropie est introduit et va transformer le problème. La notion d’entropie est due à A. Kolmorogov en 1958. Elle tire son originalité du fait qu’elle est issue de considérations de théorie de l’information, à laquelle Kolmogorov s’est fortement intéressé dès le début des années 1950 1141 . Dans ces mêmes années, nous verrons plus loin qu’il arrive aux problèmes de la théorie ergodique par le biais de recherches en Mécanique classique. De cette "rencontre" naît l’idée de projeter les notions de théorie de l’information en théorie ergodique.

L’entropie, baptisée depuis K-entropie (ou K-S entropie puisque Sinaï l’a reprise par la suite 1142 , ou encore, entropie métrique 1143 ), ne doit pas être confondue avec l’entropie thermodynamique. Elle caractérise l’incertitude engendrée par la transformation T.

Pour une transformation T, sur l’ensemble (M, μ), on considère une partition 1144 de M notée ξ=(A 1 ,...,A n ). Si on cherche à déterminer avec quelle incertitude on trouvera un point x donné dans un certain A i , il est clair que cette incertitude est maximale lorsque la partition est équitable c’est-à-dire μ(A i )=1/n pour tout i. Si il y a un déséquilibre en faveur de A 1 , μ(A 1 )=99/100, l’incertitude est considérablement réduite.

L’entropie h(ξ) de la partition est définie par :

En outre, l’entropie est un invariant des systèmes dynamiques, mais n’est pas un invariant spectral (c’est-à-dire qu’elle n’est pas un invariant de la transformation K T associée à T) et Kolmogorov a montré que des transformations à spectre continu peuvent avoir des entropies différentes. Ce concept est donc important car il permet de caractériser plus précisément des comportements ergodiques alors que les notions de spectre continu et de comportements mélangeants sont limitées. En 1970, le mathématicien Daniel Ornstein en a montré l’intérêt en prouvant que "deux décalages de Bernoulli de même entropie sont isomorphes" 1145 .

Les systèmes de Bernoulli, c’est-à-dire les systèmes isomorphes à un décalage de Bernoulli, ont une place très particulière dans les questions d’ergodicité. De par leur construction, ils intègrent une composante aléatoire, équivalente à un jeu de pile ou face, tout en étant des systèmes mathématiquement déterministes : les valeurs prises par le système sont déterminées par la donnée initiale du système.

Schématiquement, un décalage de Bernoulli est construit 1146 à partir d’un jeu de pile ou face, c’est-à-dire la donnée d’un ensemble de valeurs possibles, {0,1} ici, et de probabilité de tirage. Dans un jeu équitable {0} a une probabilité ½, {1} a la même probabilité.

Un jeu de pile ou face est la donnée d’une suite de 0 et de 1, doublement infinie : ...a -n , a  -n+1 ,...a -1 , a 0 , a 1 , ..., a n ... notée {a i }. Un schéma de Bernoulli est la donnée de l’ensemble des suites {a i } possibles, et de l’opération de décalage T qui fait correspondre une suite {b i } à une suite {a i } suivant la relation b k =a k-1 . Ce décalage correspond au passage d’un tirage au suivant et c’est l’élément dynamique du système.

L’entropie définit une sorte d’échelle d’ergodicité et de stochasticité des transformations ; les systèmes de Bernoulli sont à l’extrémité de l’échelle, les systèmes les plus aléatoires mais également les mieux classés grâce au théorème d’Ornstein.

L’entropie n’est pas pour autant la panacée puisqu’elle ne caractérise pas toutes les propriétés des transformations ergodiques. Mais à partir de l’entropie Kolmogorov a imaginé la classe des systèmes dits K-systèmes (ou systèmes quasi-réguliers 1147 ) : ce sont les systèmes ayant une entropie non nulle. Arnold et Avez les décrivent comme "une classe de systèmes dynamiques aux propriétés fortement probabilistes" 1148 . En effet, les K-systèmes ont la propriété d’être mélangeants et ergodiques. L’entropie correspondant à un taux d’accroissement d’incertitude, elle donne le taux de divergence exponentielle des trajectoires voisines, ce qui nous renvoie aux calculs faits par Krylov dans le cas du flot géodésique.

Notes
1141.

Kolmogorov participe à donner une formulation mathématique à la théorie de l’information, avec Khinchin, et ses élèves. [SEGAL, J., 1998], Chapitre 9 ; [DINER, S., 1992], p. 357.

1142.

[SINAI, Y., 1959].

1143.

B. Chirikov, dans son texte de 1979, énonce les différents vocabulaires employés (cf. chapitre 3, p. 211).

1144.

Voir par exemple : [LO BELLO, A., 1983], p. 62-63.

1145.

[ORNSTEIN, D., 1970] : "Two Brnoulli shifts with the same entropy are isomorphic". On peut consulter son ouvrage référence en matière de théorie ergodique des systèmes dynamiques, Ergodic theory, randomness and dynamical systems, [ORNSTEIN, D., 1974].

1146.

Nous renvoyons à [LO BELLO, A., 1983], p. 37-43 et au livre d’Ornstein, [ORNSTEIN, D.S., 1974].

Jacob Bernoulli (1654-1705)n’a pas formulé de notion de décalage mais la définition s’appuie sur le jeu de pile ou face, étudié dans son Ars Conjectandi de 1713 (voir [LO BELLO, A., 1983], p. 37). Par ailleurs, historiquement, mais de manière tout à fait anachronique, on peut dire que le premier "théorème ergodique" est la loi des grands nombres de Bernoulli : la moyenne de {0} dans une succession de tirages (moyenne "temporelle") est ½, c’est-à-dire la probabilité d’avoir {0} sur un tirage (équivalent d’une moyenne "spatiale"). Tout ceci peut expliquer le nom donné au "décalage de Bernoulli" ("Bernoulli shift" en anglais).

1147.

Ce serait la terminologie de Kolmogorov d’après Arnold, cf. [ARNOLD, V., AVEZ, A., 1967], p. 30.

1148.

[ARNOLD, V., AVEZ, A., 1967], p. 29 (nous mettons en évidence).