L’entropie de Krylov-Kolmogorov-Sinaï

L’application standard a un dernier avantage. Elle permet de rentrer dans le détail de la stochasticité, non plus seulement du point de vue des mécanismes générateurs (tel que le recouvrement), mais avec l’objectif de quantifier la dose de "hasard" observée grâce à une notion baptisée KS-entropie.

Du fait que l’application a une forme très simple, l’analyse est autant numérique qu’analytique, et concerne l’application tangente. Grâce à l’application tangente et à ses éléments propres (valeurs propres, vecteurs propres) Chirikov présente les directions de dilatation et de contraction, l’instabilité locale (les trajectoires proches qui divergent exponentiellement) et les orbites doublement asymptotiques 488 .

L’analyse de l’application tangente amène également un moyen de caractérisation de l’instabilité, appelé entropie de Krylov -Kolmogorov -Sinaï ou KS-entropie par Chirikov. Cette entropie correspond à h=ln ׀ λ + ׀ lorsque qu’il existe une valeur propre λ + telle que ׀λ + ׀>1.

Chirikov donne quelques détails au sujet de cette entropie, expliquant par là le nom qu’il lui attribue. Il affirme qu’elle a été utilisée largement par Krylov dans l’étude des propriétés statistiques des systèmes mécaniques (sans que cela s’appelle entropie). Kolmogorov l’aurait introduite, indépendamment, dans la théorie ergodique, sur la base de considérations de théorie de l’information : elle était appelé "entropie par unité de temps". Enfin, Sinaï a fait le lien entre cette entropie et l’instabilité locale 489 .

Relevons également les références citées par Chirikov au sujet de ces calculs : il a développé une méthode avec J. Ford, G. Casati et F.M. Izraelev 490 , C. Froeschlé 491 en a donné une plus sophistiquée, plus difficile à mettre en oeuvre, mais plus informative. Enfin, il signale une troisième méthode présentée à la conférence "Transformations ponctuelles et leurs applications", à Toulouse (LAAS) en 1973 492 .

Le terme entropie ne doit pas induire en erreur. Malgré le contexte de Mécanique statistique entourant ces réflexions, Chirikov souligne qu’il ne s’agit pas de l’entropie thermodynamique habituelle : la KS-entropie a la dimension d’une fréquence et désigne un taux de divergence (exponentiel) des trajectoires voisines.

L’intérêt de toute cette construction est que le passage de la stabilité à la stochasticité correspond, au niveau de l’entropie, à un décollage de 0 vers des valeurs strictement positives. C’est un indicateur de la frontière de stabilité, dont le calcul est donc important mais délicat, même pour une application simple comme l’application standard. A travers ces quelques éléments on peut se demander si une telle notion a sa place dans les systèmes chaotiques généraux, sans distinction de conservatif et dissipatif. Nous verrons que l’entropie est effectivement utilisée dans le "chaos dissipatif" ; nous montrerons qu’elle a, en fait, été transférée du conservatif vers le dissipatif.

Notes
488.

Ibid., p. 319.

489.

Tous ces points seront analysés dans le chapitre 7 dans les paragraphes consacrés à la question de la stochasticité.

490.

Les deux premiers sont les organisateurs de la conférence de Côme de 1977, à laquelle, naturellement Chirikov participe. Ils donnent un exposé commun (avec G. Casati et F.M. Izraelev) : [CASATI, G., FORD, J., 1979], p. 334-352. Les questions relatives aux rapports entre les exposants de Lyapounov, les notions d’entropie et les questions de théorie ergodique sont discutées au chapitre 4, p. 291.

491.

Voir la note précédente (n° 490).

492.

Selon Chirikov, la lecture des comptes rendus de cette conférence (publiés dans [MIRA, C., LAGASSE, J., 1976]) donne plus généralement les tendances importantes dans la recherche sur les itérations (qu’il utilise abondamment). [CHIRIKOV, B., 1979], p. 292.