Entropie métrique

En mathématiques et plus précisément, dans la théorie des systèmes dynamiques, l'entropie métrique, ou entropie de Kolmogorov (appelée également en anglais measure-theoretic entropy) est un outil développé par Kolmogorov vers le milieu des années 1950, issu du concept probabiliste d'entropie de la théorie de l'information de Shannon. Kolmogorov montra comment l'entropie métriquepeut être utilisée pour montrer si deux systèmes dynamiques ne sontpas conjugués. C'est un invariant fondamental des systèmesdynamiques mesurés. En outre, l'entropie métrique permet unedéfinition qualitative du chaos : une transformation chaotique peutêtre vue comme une transformation d'entropie non nulle.

Construction de l'entropie métrique

modifier

Présentons tout d'abord le cadre mathématique dans lequel on seplace. est un espace de probabilité, et est une application mesurable, qui représente la loid'évolution d'un système dynamique à temps discrets sur l'espace desphases X. On impose à f de préserver la mesure, c'est-à-dire que . Partant d'unétat initial x, on peut définir la suite de ses itérés par f : L'ensemble des états par lesquels passe le système s'appelle l'orbite de x.

Si l'on se donne une partition finie α de X constituéed'ensembles mesurables et un étatinitial x, les états ( ) par lesquels le systèmepasse tombent chacun dans une des parties de la partition α.La suite de ces parties fournit de l'information sur l'état initialx. L'entropie correspond à la quantité moyenne d'informationapportée par une itération. La construction de l'entropie métriqueest un processus qui se déroule en trois étapes, que nous allons expliciter ci-dessous. Dans un premiertemps, on définit l'entropie d'une partitionα (information moyenne issue de la connaissance de la partiede α dans laquelle se situe un point de x). Puis, ondéfinit l'entropie de la transformation frelativement à la partition α (information moyenne apportéepar une itération). Enfin, l'entropie métrique h(f) est la bornesupérieure des entropies de f relativement aux partitions de X.

Entropie d'une partition

modifier

Soit α une partition finie de X en ensembles mesurables. Un point est d'autant mieux localisé qu'il se situe dans une partie de faible mesure . Ceci justifiel'introduction de la fonction information définie par :

c'est-à-dire si .

L'entropie de la partition α est la moyenne de  :

On prend égal à 0. Si α et β sont deuxpartitions mesurables de X, on définit le joint de α etβ, la plus grande partition plus fine queα et β : . On dit que βest plus fine que α, et on note si toutélément de A de α s'écrit comme union d'éléments de β.

L'entropie d'une partition vérifie les propriétés intuitivessuivantes :

  • Si α et β sont deux partitions mesurables, alors .
  • Notons . On a : .

La première propriété signifie que l'information apportée par laconnaissance simultanée des positions des états du systèmerelativement à deux partitions est supérieure à la somme desinformations apportées relativement à chacune des partitions. Ladeuxième propriété provient du fait que f préserve la mesure.

Entropie d'une transformation relativement à une partition

modifier

α est une partition mesurable. On définit l'entropie de la transformation f relativement à α par :

On peut voir la transformation f comme le passage d'un jour au suivant lors d'uneexpérience. Au temps zéro, on ne parvient pas à distinguer tous lesétats, on regroupe les états non distinguables par paquets, on formede cette manière une partition α. représente ainsi tous les résultats possibles aubout de n jours. est donc l'information moyennequotidienne que l'on obtient en réalisant l'expérience.

La limite définie existe bien. Si on note , alors la suite est sous-additive car :

On a utilisé respectivement les deux propriétés de la section précédente. admet donc une limite.

Dernière étape : entropie métrique d'une transformation

modifier

L'entropie métrique de f, notée h(f) est la borne supérieure desentropies de f relativement aux partitions finies mesurables deX

h(f) est éventuellement infinie.

Exemples de systèmes dynamiques et calcul d'entropie

modifier

Le calcul de l'entropie métrique est facilité lorsque la bornesupérieure est atteinte, i.e lorsqu'il existe une partitionα telle que l'entropie métrique et l'entropie relativement àα soient confondues. À titre d'exemple, traitons le cas del'application identité de X. Alors,

L'identité a une entropie nulle, ce qui est prévisible en raison de son caractère peu chaotique.

Dans beaucoup de cas moins triviaux, le théorème suivant, d'Andreï Kolmogorov et Iakov Sinaï, est l'un des outils les plus pratiques pour calculer une entropie, car il évite de prendre la borne supérieure sur toutes les partitions mesurables de X.

Si α est une partition mesurable de X telle que la suite engendre la tribu , ou bien si f est inversible (f-1 est mesurable et préserve la mesure) et la suite engendre la tribu alors on dit que α est génératrice.

Le théorème de Kolmogorov-Sinai affirme que si α est génératrice, alors .

Rotations du cercle

modifier

est le cercle unité, muni de la mesure d'angledθ. Analysons l'effet d'une rotation

lorsque est rationnel. Soit α unepartition :

Dans le cas où a est irrationnel, on montre également quel'entropie métrique de f est nulle.

Doublement des angles

modifier

Toujours sur le cercle unité, on prend cette fois l'application

qui double les angles. On considère la mêmepartition

On observe que :

Puis par récurrence, on déduit plus généralement que :

Comme les ensembles du type engendrent la tribu , le théorème de Kolmogorov-Sinaimontre que et :

L'entropie métrique de f est donc log 2.

On dispose d'un alphabet fini . Soit des nombres strictement positifs de somme1. On assigne à chaque lettre i la probabilité d'apparition. est un espace de probabilité. On introduit l'espace des motsinfinis . Ondéfinit l'application décalage σ par pour . est unsystème dynamique inversible. On partitionne en est l'ensemble des mots tels que . est la partition par les cylindres . L'ensemble de cescylindres engendrent la tribu de et le théorème deKolmogorov-Sinai s'applique. On calcule alors facilement :

Donc .

Voir aussi

modifier

Articles connexes

modifier