Constante de Kemeny

En probabilités, la constante de Kemeny d'une chaîne de Markov ergodique est l'espérance du temps d'atteinte d'un état choisi aléatoirement selon la probabilité stationnaire de cette chaîne. Ce qu'il y a de remarquable à propos de cette espérance est qu'elle ne dépend pas de l'état initial de la chaîne — d'où le nom de constante de Kemeny : il s'agit d'une quantité qui ne dépend que de la chaîne étudiée.

Définition formelle

La définition suivante est conforme à la formulation originelle, mais comme détaillé plus bas il est possible d'adopter une autre convention. Soit T j + {\displaystyle \textstyle T_{j}^{+}} le temps d'atteinte de l'état j, défini ici par T j + = min { t 1 X t = j } {\displaystyle \textstyle T_{j}^{+}=\min\{t\geq 1\mid X_{t}=j\}} , où X t {\displaystyle \textstyle X_{t}} est l'état de la chaîne au temps t. On note E i [ T j + ] {\displaystyle \textstyle \mathbb {E} _{i}[T_{j}^{+}]} l'espérance de cette variable aléatoire sachant que X 0 = i {\displaystyle \textstyle X_{0}=i} , i.e. le temps moyen qu'il faut pour atteindre l'état j en partant de l'état i (qu'on prend égal au temps de retour en i lorsque i = j. La constante de Kemeny est donnée par

K = j E i [ T j + ] π j {\displaystyle K=\sum _{j}\mathbb {E} _{i}\left[T_{j}^{+}\right]\pi _{j}} ,

π {\displaystyle {\boldsymbol {\pi }}} est la probabilité stationnaire de la chaîne. Comme expliqué plus haut, cette quantité ne dépend pas de i.

Remarque : Il aurait également été possible d'adopter la définition suivante :

K = j E i [ T j ] π j {\displaystyle K'=\sum _{j}\mathbb {E} _{i}\left[T_{j}\right]\pi _{j}} ,

T j = min { t 0 X t = j } {\displaystyle T_{j}=\min \left\{t\geq 0\mid X_{t}=j\right\}} . On a alors K = K + 1 {\displaystyle K=K'+1} . En effet, le seul terme différant dans les deux sommes précédentes est le terme pour j = i. Dans avec la première définition, ce terme est égal au produit du temps de retour à l'état i ( 1 / π i {\displaystyle 1/\pi _{i}} ) par la probabilité stationnaire de se trouver dans cet état ( π i {\displaystyle \pi _{i}} ), soit 1; tandis qu'avec la deuxième il est égal à 0. La deuxième définition présente l'avantage de permettre d'exprimer la constante comme K = T r ( Z ) {\displaystyle K'=\mathrm {Tr} (\mathbf {Z} )} , où Z = ( I P + Π ) 1 Π {\displaystyle \mathbf {Z} =(I-P+\Pi )^{-1}-\Pi } , où P {\displaystyle P} est la matrice de transition et Π {\displaystyle \Pi } la matrice dont les lignes sont π {\displaystyle {\boldsymbol {\pi }}} .[réf. nécessaire]

Anecdote historique

Ce résultat est contre intuitif, si bien que lorsqu'il a été énoncé par John Kemeny en 1960, un prix a été promis à quiconque pourrait en donner une explication intuitive[1].

Références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Kemeny's constant » (voir la liste des auteurs).
  1. (en) John Kemeny et J. Laurie Snell, Finite Markov Chains, Princeton, NJ, D. Van Nostrand, (DOI 10.1007/s10915-010-9382-1) (Corollary 4.3.6)
  • icône décorative Portail des probabilités et de la statistique