Récurrence et transience d'une chaîne de Markov

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

Un état i {\displaystyle i} d'une chaîne de Markov X = ( X n ) n 0 {\displaystyle X=(X_{n})_{n\geq 0}} est dit récurrent (ou persistant) si une trajectoire « typique » de la chaîne de Markov passe par i {\displaystyle i} une infinité de fois, sinon l'état i {\displaystyle i} est dit transitoire (ou transient par calque de l'anglais). Ces propriétés de transience ou de récurrence sont souvent partagées par tous les états de la chaîne X , {\displaystyle X,} par exemple quand la chaîne X {\displaystyle X} est irréductible : en ce cas, si tous ses états sont récurrents, la chaîne de Markov est dite récurrente.

Temps de séjour et temps de premier retour

Pour chaque état i d'une chaîne de Markov, on a les définitions suivantes :

Définition — 

  • Le temps de séjour (ou nombre de passages) en i {\displaystyle i} est une variable aléatoire S ( i ) {\displaystyle S(i)} à valeurs dans N ¯ = N { + } , {\displaystyle {\overline {\mathbb {N} }}=\mathbb {N} \cup \{+\infty \},} définie par
S ( i )   =   k 0 1 X k = i . {\displaystyle S(i)\ =\ \sum _{k\geq 0}1_{X_{k}=i}.}

La quantité

S n ( i )   =   0 k n 1 1 X k = i , {\displaystyle S_{n}(i)\ =\ \sum _{0\leq k\leq n-1}1_{X_{k}=i},}

mesure le temps passé dans l'état i {\displaystyle i} lors des n {\displaystyle n} premiers pas de la chaîne de Markov. Les relations suivantes seront utiles :

S n ( i ) n , i E S n ( i ) = n ,   e t   lim n S n ( i ) = S ( i ) . {\displaystyle S_{n}(i)\leq n,\quad \sum _{i\in E}S_{n}(i)=n,\mathrm {~et~} \lim _{n}S_{n}(i)=S(i).}
  • Le temps de premier retour en i , {\displaystyle i,} noté T i , {\displaystyle T_{i},} est une variable aléatoire à valeurs dans N ¯ = N { + } , {\displaystyle {\overline {\mathbb {N} }}=\mathbb {N} \cup \{+\infty \},} définie par
T i = { inf { k 1 | X k = i }  si  { k 1 | X k = i } , +  sinon. . {\displaystyle T_{i}=\left\{{\begin{array}{ll}\inf\{k\geq 1\,|\,X_{k}=i\}&{\text{ si }}\{k\geq 1\,|\,X_{k}=i\}\neq \emptyset ,\\+\infty &{\text{ sinon.}}\end{array}}\right..}

Récurrence et transience (définition informelle)

Informellement, pour une chaîne de Markov irréductible, un état i {\displaystyle i} du système modélisé par la chaîne de Markov est dit récurrent si une trajectoire typique du système passe infiniment souvent par cet état. Il y a en fait dichotomie :

  • soit la probabilité que la trajectoire du système passe infiniment souvent par i {\displaystyle i} vaut 1, et l'état i {\displaystyle i} est dit récurrent,
  • soit cette probabilité vaut 0, auquel cas i {\displaystyle i} est dit transient.
  • les états récurrents (ceux pour lesquels lim n S n ( i ) = + {\displaystyle \lim _{n}S_{n}(i)=+\infty } ) se subdivisent en états récurrents positifs et récurrents nuls :
  • un état est dit récurrent positif si le système y passe une fraction non négligeable de son temps : bien sûr S n ( i ) n , {\displaystyle S_{n}(i)\leq n,} mais S n ( i ) {\displaystyle S_{n}(i)} ne doit pas être trop petit devant n {\displaystyle n} :
lim n S n ( i ) n = π i > 0 ; {\displaystyle \lim _{n}{\frac {S_{n}(i)}{n}}=\pi _{i}>0\,;}
en notation de Landau, S n ( i ) Θ ( n ) . {\displaystyle S_{n}(i)\in \Theta (n).} Cela entraîne que les instants de passage en i {\displaystyle i} sont, en un certain sens, régulièrement espacés, à une distance 1 / π i {\displaystyle 1/\pi _{i}} les uns des autres en moyenne,
  • un état est dit récurrent nul si le système y passe une fraction négligeable de son temps :
lim n S n ( i ) n = 0 ; {\displaystyle \lim _{n}{\frac {S_{n}(i)}{n}}=0\,;}
i.e. S n ( i ) + , {\displaystyle S_{n}(i)\rightarrow +\infty ,} mais S n ( i ) o ( n ) . {\displaystyle S_{n}(i)\in o(n).} Le système passe infiniment souvent par l'état i , {\displaystyle i,} mais les instants de passage en i {\displaystyle i} sont alors de plus en plus espacés au cours du temps.

Toujours dans le cas d'une chaîne de Markov irréductible, si un état est récurrent positif, tous les états le sont et la suite ( π i ) i E {\displaystyle (\pi _{i})_{i\in E}} est appelée probabilité stationnaire de la chaîne de Markov. La probabilité stationnaire joue un rôle très important dans l'étude de la chaîne de Markov.

Marche aléatoire sur Z {\displaystyle \mathbb {Z} } et Z m {\displaystyle \mathbb {Z} _{m}}  :

Par exemple, si p i , i + 1 = p = 1 p i , i 1 , {\displaystyle p_{i,i+1}=p=1-p_{i,i-1},} on parle de marche aléatoire sur Z {\displaystyle \mathbb {Z} } ou sur Z m . {\displaystyle \mathbb {Z} _{m}.}

  • Si on est sur Z m , {\displaystyle \mathbb {Z} _{m},} alors, indépendamment de la valeur de p , {\displaystyle p,} chaque état est récurrent positif et chaque π i {\displaystyle \pi _{i}} vaut 1 m ; {\displaystyle {\frac {1}{m}};}
  • Si on est sur Z , {\displaystyle \mathbb {Z} ,} et si p 0 , 5 , {\displaystyle p\neq 0{,}5,} chaque état i {\displaystyle i} est transient : au bout d'un certain temps, aléatoire, une trajectoire typique ne passe plus jamais par i ; {\displaystyle i;}
  • Si on est sur Z , {\displaystyle \mathbb {Z} ,} et si p = 0 , 5 , {\displaystyle p=0{,}5,} chaque état i {\displaystyle i} est récurrent nul : S n ( i ) n , {\displaystyle S_{n}(i)\sim {\sqrt {n}},} et le n {\displaystyle n} -ième passage a lieu, grosso modo, au bout de n 2 {\displaystyle n^{2}} unités de temps.
Récurrence et théorie ergodique :

Il faut mentionner une notion très voisine : le théorème de récurrence de Poincaré (1890) dit que, pour presque toutes les « conditions initiales », un système dynamique conservatif dont l'espace des phases est de « volume » fini va repasser au cours du temps aussi près que l'on veut de sa condition initiale, et ce de façon répétée.

Critères de récurrence et de transience

Notations. Lorsqu'on étudie une chaîne de Markov particulière, sa matrice de transition est en général bien définie et fixée tout au long de l'étude, mais la loi initiale peut changer lors de l'étude et les notations doivent refléter la loi initiale considérée sur le moment :

  • si à un moment de l'étude on considère une chaîne de Markov de loi initiale définie par i E , P ( X 0 = i ) = μ i , {\displaystyle \forall i\in E,\quad \mathbb {P} \left(X_{0}=i\right)=\mu _{i},} alors les probabilités sont notées P μ ( ) , {\displaystyle \mathbb {P} _{\mu }\left(\dots \right),} et les espérances sont notées E μ [ ]   ; {\displaystyle \mathbb {E} _{\mu }\left[\dots \right]\ ;}
  • en particulier, si P ( X 0 = j ) = 1 , {\displaystyle \mathbb {P} \left(X_{0}=j\right)=1,} on dit que la chaîne de Markov part de j , {\displaystyle j,} les probabilités sont notées P j ( ) , {\displaystyle \mathbb {P} _{j}\left(\dots \right),} et les espérances sont notées E j [ ] . {\displaystyle \mathbb {E} _{j}\left[\dots \right].}

Définition — 

  • Un état i {\displaystyle i} est dit récurrent si et seulement si l'une des conditions équivalentes ci-dessous est remplie :
    •   P i ( S ( i ) = + ) > 0 , {\displaystyle \ \mathbb {P} _{i}\left(S(i)=+\infty \right)>0,}
    •   P i ( S ( i ) = + ) = 1 , {\displaystyle \ \mathbb {P} _{i}\left(S(i)=+\infty \right)=1,}
    •   E i [ S ( i ) ] = + , {\displaystyle \ \mathbb {E} _{i}\left[S(i)\right]=+\infty ,}
    •   k 0 p i , i ( k ) = + , {\displaystyle \ \sum _{k\geq 0}p_{i,i}^{(k)}=+\infty ,}
    •   P i ( T i < + ) = 1. {\displaystyle \ \mathbb {P} _{i}\left(T_{i}<+\infty \right)=1.}
  • Un état i {\displaystyle i} est dit transient dans le cas contraire, i.e. si et seulement si l'une des conditions équivalentes ci-dessous est remplie :
    •   P i ( S ( i ) = + ) < 1 , {\displaystyle \ \mathbb {P} _{i}\left(S(i)=+\infty \right)<1,}
    •   P i ( S ( i ) = + ) = 0 , {\displaystyle \ \mathbb {P} _{i}\left(S(i)=+\infty \right)=0,}
    •   E i [ S ( i ) ] < + , {\displaystyle \ \mathbb {E} _{i}\left[S(i)\right]<+\infty ,}
    •   k 0 p i , i ( k ) < + , {\displaystyle \ \sum _{k\geq 0}p_{i,i}^{(k)}<+\infty ,}
    •   P i ( T i = + ) > 0. {\displaystyle \ \mathbb {P} _{i}\left(T_{i}=+\infty \right)>0.}
  • L'état i {\displaystyle i} est récurrent positif si
    • l'espérance du temps de premier retour en cet état, partant de cet état, est finie, i.e. si
E i [ T i ]   <   + . {\displaystyle \mathbb {E} _{i}\left[T_{i}\right]\ <\ +\infty .}
ou bien, de manière équivalente, si
  • il existe une probabilité stationnaire π = ( π i ) i E {\displaystyle \pi =(\pi _{i})_{i\in E}} telle que π i > 0 , {\displaystyle \pi _{i}>0,} i.e. une probabilité π {\displaystyle \pi } telle que π i > 0 {\displaystyle \pi _{i}>0} et telle que π P = π , {\displaystyle \pi P=\pi ,} cette dernière relation s'écrivant aussi, coordonnées par coordonnées,
j E , i E π i p i , j = π j . {\displaystyle \forall j\in E,\qquad \sum _{i\in E}\pi _{i}p_{i,j}=\pi _{j}.}
  • L'état i {\displaystyle i} est récurrent nul s'il est récurrent et si, pourtant, l'espérance du temps de premier retour en cet état, partant de cet état, est infinie, i.e. si
    • P i ( T i < + ) = 1 et E i [ T i ]   =   + . {\displaystyle \mathbb {P} _{i}\left(T_{i}<+\infty \right)=1\quad {\text{et}}\quad \mathbb {E} _{i}\left[T_{i}\right]\ =\ +\infty .}

Exemples

Marche aléatoire sur un groupe fini

Graphe de 2 marches aléatoires élémentaires, respectivement sur le groupe cyclique   Z 8 {\displaystyle \ \mathbb {Z} _{8}} et sur le groupe diédral   D 4 . {\displaystyle \ D_{4}.}
Marche aléatoire sur   Z m {\displaystyle \ \mathbb {Z} _{m}}  :

Dans cet exemple,   p i , i 1 = p = 1 p i , i + 1 . {\displaystyle \ p_{i,i-1}=p=1-p_{i,i+1}.} La matrice de transition   P {\displaystyle \ P} s'écrit

  P = p A + ( 1 p ) B , {\displaystyle \ P=pA+(1-p)B,}

  A {\displaystyle \ A} (resp.   B {\displaystyle \ B} ) est la matrice de la permutation circulaire   ( 1 , 2 , 3 , , m ) {\displaystyle \ (1,2,3,\dots ,m)} (resp.   ( m , m 1 , m 2 , , 1 ) {\displaystyle \ (m,m-1,m-2,\dots ,1)} ). Par conséquent   π = ( 1 / m , 1 / m , , 1 / m ) {\displaystyle \ \pi =(1/m,1/m,\dots ,1/m)} est une probabilité stationnaire, donc chaque état est récurrent positif, en vertu du 2e critère. Dans la figure ci-contre,   m = 8 {\displaystyle \ m=8} et   q = 1 p . {\displaystyle \ q=1-p.}

Marche aléatoire sur   D 4 {\displaystyle \ D_{4}}  :

Dans cet exemple,   p g , g τ = p {\displaystyle \ p_{g,g\tau }=p} et   p g , g ρ = q , {\displaystyle \ p_{g,g\rho }=q,}   τ = ( b , d ) {\displaystyle \ \tau =(b,d)} est la symétrie du carré par rapport à la diagonale (a,c), et où   ρ = ( a , b ) ( c , d ) {\displaystyle \ \rho =(a,b)(c,d)} est la symétrie du carré par rapport à son axe horizontal ;   σ = ρ τ = ( a , b , c , d ) {\displaystyle \ \sigma =\rho \circ \tau =(a,b,c,d)} est la rotation d'angle   π / 2. {\displaystyle \ \pi /2.} La probabilité   π = ( 1 / 8 , 1 / 8 , , 1 / 8 ) {\displaystyle \ \pi =(1/8,1/8,\dots ,1/8)} est une probabilité stationnaire, donc chaque état est récurrent positif, en vertu du 2e critère.

Plus généralement, tous les états d'une marche aléatoire sur un groupe fini   G {\displaystyle \ G} sont récurrents positifs, car la loi uniforme discrète sur   G {\displaystyle \ G} est une probabilité stationnaire, indépendamment du pas de la marche : en effet, la matrice de transition   P {\displaystyle \ P} d'une marche aléatoire sur un groupe discret est bistochastique (i.e. non seulement la somme des termes d'une ligne vaut 1, quelle que soit la ligne, mais la somme des termes d'une colonne de   P {\displaystyle \ P} vaut 1, quelle que soit la colonne). Si tous les coefficients du vecteur ligne   x {\displaystyle \ x} valent 1, on vérifie alors sans peine que   x P = x . {\displaystyle \ xP=x.} Ainsi la mesure uniforme, qui est proportionnelle à   x , {\displaystyle \ x,} est stationnaire.

Marche aléatoire simple sur les entiers relatifs

Dans cet exemple, E = Z {\displaystyle E=\mathbb {Z} } et p i , i + 1 = p = 1 p i , i 1 . {\displaystyle p_{i,i+1}=p=1-p_{i,i-1}.} Si 0 < p < 1 , {\displaystyle 0<p<1,} la chaîne X = ( X n ) n 0 {\displaystyle X=(X_{n})_{n\geq 0}} est irréductible, donc tous les états ont même nature. Par exemple on a

k 0 , p 0 , 0 ( 2 k ) = ( 2 k k ) p k ( 1 p ) k ( 4 p ( 1 p ) ) k k π , {\displaystyle \forall k\geq 0,\qquad p_{0,0}^{(2k)}={2k \choose k}p^{k}(1-p)^{k}\sim {\frac {(4p(1-p))^{k}}{\sqrt {k\pi }}},}

alors que p 0 , 0 ( 2 k + 1 ) = 0. {\displaystyle p_{0,0}^{(2k+1)}=0.}

Marche aléatoire biaisée

  • Si on observe la forme de la fraction ci-dessus, comme { 4 p ( 1 p ) < 1 } { p 0.5 } , {\displaystyle \{4p(1-p)<1\}\Leftrightarrow \{p\neq 0.5\},} la marche est transiente si et seulement si p 0.5 , {\displaystyle p\neq 0.5,} en vertu du quatrième critère de transience exprimé dans la partie « Critères de récurrence et de transience ».
  • On peut aussi voir que p 0.5 {\displaystyle p\neq 0.5} entraîne la transience de la chaîne de Markov X = ( X n ) n 0 {\displaystyle X=(X_{n})_{n\geq 0}} en construisant cette chaîne à l'aide d'une suite de variables aléatoires i.i.d. Y = ( Y n ) n 1 , {\displaystyle Y=(Y_{n})_{n\geq 1},} de la manière suivante : posons
S 0 = 0 , S n = S n 1 + Y n n 1 = Y 1 + Y 2 + + Y n . {\displaystyle {\begin{aligned}S_{0}=0,\qquad S_{n}&=S_{n-1}+Y_{n}\qquad n\geq 1\\&=Y_{1}+Y_{2}+\dots +Y_{n}.\end{aligned}}}
Alors S = ( S n ) n 0 {\displaystyle S=(S_{n})_{n\geq 0}} a même loi que X = ( X n ) n 0 , {\displaystyle X=(X_{n})_{n\geq 0},} mais la loi forte des grands nombres pour les suites de v.a. i.i.d. entraîne que, presque sûrement en ω Ω , {\displaystyle \omega \in \Omega ,}
lim S n ( ω ) n = E [ Y n ] = ( 1 p ) × ( 1 ) + p × 1 = 2 p 1 0. {\displaystyle \lim {\frac {S_{n}(\omega )}{n}}=\mathbb {E} [Y_{n}]=(1-p)\times (-1)+p\times 1=2p-1\neq 0.}
donc, avec probabilité 1, la suite de nombres réels ( S n ( ω ) ) n 0 {\displaystyle (S_{n}(\omega ))_{n\geq 0}} converge vers s g n ( 2 p 1 ) × + , {\displaystyle sgn(2p-1)\times +\infty ,} et visite la valeur 0, au plus, un nombre fini de fois : 0 est donc transient, et tous les entiers de sa classe ( Z , {\displaystyle \mathbb {Z} ,} en l'occurrence) avec lui.
  • Dans le cas où p = 0.5 , {\displaystyle p=0.5,} la méthode précédente ne permet pas de démontrer la récurrence de 0, puisque la loi forte des grands nombres stipule alors la convergence de la suite ( n 1 S n ( ω ) ) n 0 {\displaystyle (n^{-1}\,S_{n}(\omega ))_{n\geq 0}} vers 0, ce qui n'entraîne pas nécessairement que la suite ( S n ( ω ) ) n 0 {\displaystyle (S_{n}(\omega ))_{n\geq 0}} prenne la valeur 0 une infinité de fois : pour aboutir à la conclusion d'une infinité de visites en 0, il faut invoquer un résultat plus précis que la loi forte des grands nombres, à savoir la loi du logarithme itéré.
  • Pour décider de la récurrence ou de la transience aussi bien dans le cas p = 0.5 {\displaystyle p=0.5} que dans le cas p 0.5 , {\displaystyle p\neq 0.5,} on peut aussi calculer explicitement la loi du premier temps T de retour en 0, partant de 0, pour la marche aléatoire simple, et trancher ainsi l'alternative :
P i ( T i < + ) = 1 ou P i ( T i = + ) > 0. {\displaystyle \mathbb {P} _{i}\left(T_{i}<+\infty \right)=1\quad {\text{ou}}\quad \mathbb {P} _{i}\left(T_{i}=+\infty \right)>0.}
En effet
k 1 , P ( T = 2 k ) = 2 C k 1 ( p ( 1 p ) ) k , {\displaystyle \forall k\geq 1,\qquad \mathbb {P} (T=2k)=2C_{k-1}\left(p(1-p)\right)^{k},}
C n {\displaystyle C_{n}} désigne le n-ème nombre de Catalan. On trouve alors que la série génératrice de T, G T ( s ) = E [ s T ] , {\displaystyle G_{T}(s)=\mathbb {E} [s^{T}],} satisfait
G T ( s ) = 1 1 4 p ( 1 p ) s 2 . {\displaystyle G_{T}(s)=1-{\sqrt {1-4p(1-p)s^{2}}}.}
Ainsi
P ( T < + ) = k 2 P ( T = k ) = G T ( 1 ) = 1 1 4 p ( 1 p ) = 1 | 2 p 1 | {\displaystyle {\begin{aligned}\mathbb {P} (T<+\infty )&=\sum _{k\geq 2}\mathbb {P} (T=k)\\&=G_{T}(1)\\&=1-{\sqrt {1-4p(1-p)}}\\&=1-|2p-1|\end{aligned}}}
est strictement inférieur à 1 si et seulement si p 0.5. {\displaystyle p\neq 0.5.}

Marche aléatoire symétrique

  • Par ailleurs, pour p = 0.5 , {\displaystyle p=0.5,} la mesure de probabilité π {\displaystyle \pi } est solution du système π P = π {\displaystyle \pi P=\pi } si et seulement si
k Z , 2 π k = π k 1 + π k + 1 , {\displaystyle \forall k\in \mathbb {Z} ,\qquad 2\pi _{k}=\pi _{k-1}+\pi _{k+1},}
i.e. si et seulement si les π k {\displaystyle \pi _{k}} forment une progression arithmétique :
k Z , π k = a k + b . {\displaystyle \forall k\in \mathbb {Z} ,\qquad \pi _{k}=ak+b.}
La contrainte de positivité sur les π k {\displaystyle \pi _{k}} impose a = 0 ,   b 0 , {\displaystyle a=0,\ b\geq 0,} i.e. π k {\displaystyle \pi _{k}} est une suite constante. Ainsi k π k {\displaystyle \sum _{k}\pi _{k}} est infinie ou nulle, suivant la valeur de b , {\displaystyle b,} strictement positive ou bien nulle, donc une mesure invariante ne peut en aucun cas être une mesure de probabilité, ce qui fait qu'il n'existe pas de probabilité stationnaire : tous les états sont récurrents nuls.
C n 4 n n 3 / 2 π , {\displaystyle C_{n}\sim {\frac {4^{n}}{n^{3/2}{\sqrt {\pi }}}},}
on peut aussi voir directement, grace la formule explicite de la loi du temps T de retour en 0, donnée à la section précédente, que
2 k P ( T = 2 k ) 1 2 π k {\displaystyle 2k\mathbb {P} (T=2k)\sim {\frac {1}{2{\sqrt {\pi k}}}}}
n'est pas le terme général d'une série convergente, et que, par conséquent, E [ T ] = + . {\displaystyle \mathbb {E} [T]=+\infty .}
  • icône décorative Portail des probabilités et de la statistique