e. Modélisation des chaînes de Markov d’ordre élevé

L’estimation et l’interprétation des probabilités de transition des chaînes de Markov sont relativement simples lorsque le nombre de modalités de Y est faible et que le caractère autorégressif est limité (en général d’ordre 1). La situation se complique très nettement dès que l’ordre de la chaîne de Markov est supérieur à 1 dans la mesure où le nombre de paramètres indépendants à estimer croît de manière géométrique avec p. Pour une variable aléatoire Y comportant J modalités et suivant une chaîne de Markov d’ordre p, le nombre de paramètres indépendants à estimer est ainsi égal à Jp(J-1) 180. Techniquement l’estimation devient rapidement impossible et les résultats difficilement intelligibles. Différentes solutions ont été proposées pour modéliser ces chaînes de Markov dites d’ordre élevé (High-order Markov Models ou HMM).

Compte tenu du faible nombre de périodes d’observations dont nous disposons181, nous ne ferons que rappeler les mécanismes des principales méthodes sur le sujet : les méthodes de Raftery (pour des chaînes d’ordre fini) et de Meharan (pour les chaînes d’ordre infini et le traitement des données manquantes). Pour des développements plus détaillés et une généralisation de ces modèles nous renvoyons à l’ouvrage de Berchtold [1998]182.

Notes
180.

Après élimination des zéros structurels.

181.

Nous disposons tout au plus de trois périodes d’observations, ce qui correspond à l’estimation d’un modèle autoregressif d’ordre 2 au maximum. Nous avons néanmoins noté que la modélisation d’une chaîne de Markov d’ordre 2 pour les comportements d’innovations de produits et de procédés nous amenait déjà à l’estimation de 4²*(4-1)=48 paramètres indépendants dans la matrice de transition réduite Rp !

182.

Berchtold mentionne d’autres modèles comme ceux de Jabos et Lewis [1978] ; Pegram [1975] ; Pegram [1980] ; Logan [1981].