Distribution quasi-stationnaire

Une distribution quasi-stationnaire est une distribution mathématique qui décrit le comportement d'une chaîne de Markov absorbante avant que l'absorption n'ait lieu.

Définition et propriétés en temps discret

Soit ( X n ) {\displaystyle (X_{n})} une chaîne de Markov sur l'ensemble des entiers naturels N {\displaystyle \mathbb {N} } . Supposons que l'état 0 soit absorbant[C'est-à-dire ?] et la chaîne soit absorbée en 0 presque sûrement. Soit T 0 = inf { n 0 , X n = 0 } {\displaystyle T_{0}=\inf\{n\geq 0,X_{n}=0\}} le temps d'absorption en 0. On dit qu'une probabilité ν {\displaystyle \nu } sur { 1 , 2 , 3 , . . . } {\displaystyle \{1,2,3,...\}} est une distribution quasi-stationnaire si pour tout j 1 {\displaystyle j\geq 1} et pour tout n 1 {\displaystyle n\geq 1} ,

i 1 ν i P ( X n = j | X 0 = i , T 0 > n ) = ν j . {\displaystyle \sum _{i\geq 1}\nu _{i}\mathbb {P} (X_{n}=j|X_{0}=i,T_{0}>n)=\nu _{j}.}

On dit qu'une probabilité μ {\displaystyle \mu } sur { 1 , 2 , 3 , . . . } {\displaystyle \{1,2,3,...\}} est une limite de Yaglom si pour tout i 1 {\displaystyle i\geq 1} et tout j 1 {\displaystyle j\geq 1} ,

lim n P ( X n = j | X 0 = i , T 0 > n ) = μ j . {\displaystyle \lim _{n\to \infty }\mathbb {P} (X_{n}=j|X_{0}=i,T_{0}>n)=\mu _{j}.}

Une limite de Yaglom est une distribution quasi-stationnaire. Si elle existe, la limite de Yaglom est unique. En revanche, il peut y avoir plusieurs distributions quasi-stationnaires.

Si ν {\displaystyle \nu } est une distribution quasi-stationnaire, alors il existe un nombre réel ρ ( ν ) ] 0 , 1 [ {\displaystyle \rho (\nu )\in ]0,1[} tel que

i ν i P ( T 0 > n | X 0 = i ) = ρ ( ν ) n {\displaystyle \sum _{i}\nu _{i}\mathbb {P} (T_{0}>n|X_{0}=i)=\rho (\nu )^{n}} .

Soit θ ( ν ) = log ρ ( ν ) {\displaystyle \theta (\nu )=-\log \rho (\nu )} . Alors pour tout θ < θ ( ν ) {\displaystyle \theta <\theta (\nu )}

i ν i E ( e θ T 0 | X 0 = i ) < . {\displaystyle \sum _{i}\nu _{i}\mathbb {E} (e^{\theta T_{0}}|X_{0}=i)<\infty .}

Le nombre θ = sup { θ : E ( e θ T | X 0 = i ) < + } {\displaystyle \theta ^{*}=\sup\{\theta :\mathbb {E} (e^{\theta T}|X_{0}=i)<+\infty \}} ne dépend pas de i {\displaystyle i} . C'est le taux de survie du processus. S'il existe une distribution quasi-stationnaire, alors θ > 0 {\displaystyle \theta ^{*}>0} .

Soit P {\displaystyle P} la matrice de transition de la chaîne de Markov et Q = ( P i , j ) i , j > 0 {\displaystyle Q=(P_{i,j})_{i,j>0}} . Si ν {\displaystyle \nu } est une distribution quasi-stationnaire, alors ν Q = ρ ( ν ) ν . {\displaystyle \nu Q=\rho (\nu )\,\nu .} . Donc ν {\displaystyle \nu } est un vecteur propre à gauche avec une valeur propre dans l'intervalle ] 0 , 1 [ {\displaystyle ]0,1[} .

Définition et propriétés en temps continu

Soit un processus de Markov ( X t ) t 0 {\displaystyle (X_{t})_{t\geq 0}} à valeurs dans E {\displaystyle E} . Supposons qu'il y ait un ensemble mesurable F {\displaystyle F} d'états absorbants et posons G = E F {\displaystyle G=E\setminus F} . Notons T {\displaystyle T} le temps d'atteinte de F {\displaystyle F} . Supposons que F {\displaystyle F} soit atteint presque sûrement : x X , P ( T < | X 0 = x ) = 1 {\displaystyle \forall x\in {\mathcal {X}},\mathbb {P} (T<\infty |X_{0}=x)=1} .

Une probabilité ν {\displaystyle \nu } sur G {\displaystyle G} est une distribution quasi-stationnaire si pour tout ensemble mesurable B {\displaystyle B} dans G {\displaystyle G} ,

t 0 , G P ( X t B | X 0 = x , T > t ) d ν ( x ) = ν ( B ) {\displaystyle \forall t\geq 0,\int _{G}\mathbb {P} (X_{t}\in B|X_{0}=x,T>t)\,\mathrm {d} \nu (x)=\nu (B)}

Si ν {\displaystyle \nu } est une distribution quasi-stationnaire, alors il existe un nombre réel θ ( ν ) > 0 {\displaystyle \theta (\nu )>0} tel que G P ( T > t | X 0 = x ) d ν ( x ) = exp ( θ ( ν ) t ) {\displaystyle \int _{G}\mathbb {P} (T>t|X_{0}=x)\,\mathrm {d} \nu (x)=\exp(-\theta (\nu )t)} .

Exemple

Soit ( X t ) {\displaystyle (X_{t})} une chaîne de Markov en temps continu sur un espace d'états fini I {\displaystyle I} , de générateur Q {\displaystyle Q} . Soit J {\displaystyle J} un sous-ensemble absorbant de I {\displaystyle I} . Notons K = I J {\displaystyle K=I\setminus J} et R = ( Q i , j ) i , j K {\displaystyle R=(Q_{i,j})_{i,j\in K}} . Supposons que R {\displaystyle R} soit une matrice irréductible. Supposons aussi qu'il existe i 0 {\displaystyle i_{0}} tel que ( Q 1 ) i 0 < 0 {\displaystyle (Q\mathbf {1} )_{i_{0}}<0} , où 1 {\displaystyle \mathbf {1} } est le vecteur (1,...,1). D'après le théorème de Perron-Frobenius, il existe une unique valeur propre θ < 0 {\displaystyle -\theta <0} de la matrice R {\displaystyle R} avec un vecteur propre à gauche ν {\displaystyle \nu } dont toutes les composantes sont > 0 {\displaystyle >0} et normalisé de sorte que i K ν i = 1 {\displaystyle \sum _{i\in K}\nu _{i}=1} . Alors ν {\displaystyle \nu } est l'unique distribution quasi-stationnaire. De plus, pour tout i , j K {\displaystyle i,j\in K} ,

θ = lim t 1 t log P ( X t = j | X 0 = i ) . {\displaystyle \theta =-\lim _{t\to \infty }{\frac {1}{t}}\log \mathbb {P} (X_{t}=j|X_{0}=i).}

Historique

Les travaux de Wright sur la fréquence des gènes en 1931 et de Yaglom en 1947 sur les processus de ramification contenaient déjà l'idée des distributions quasi-stationnaires. Le terme de quasi-stationnarité appliqué aux systèmes biologiques a ensuite été utilisé par Donald Barlett en 1957, qui a ensuite forgé le terme « distribution quasi-stationnaire ».

Les distributions quasi-stationnaires faisaient également partie de la classification des processus tués donnée par Vere-Jones en 1962. La définition pour les chaînes de Markov à espace d'états fini a été donnée en 1965 par Darroch et Seneta.

Bibliographie en français

  • Denis Villemonais, Distributions quasi-stationnaires et méthodes particulaires pour l'approximation de processus conditionnés, thèse, École polytechnique, 2011.
  • Sylvie Méléard, Modèles aléatoires en écologie et évolution, Springer, 2016.

Bibliographie en anglais et en russe

  • S. Wright, Evolution in Mendelian populations, Genetics, 1931, vol. 16, no 2, pp. 97–159.
  • A.M. Yaglom, Certains théorèmes limites dans la théorie des processus stochastiques de branchement (en russe), Dokl. Akad. Nauk. SSSR no 56, 1947, p. 795-798.
  • Maurice Bartlett, « On theoretical models for competitive and predatory biological systems », Biometrika, no 44,‎ , p. 27–42.
  • M.S. Bartlett, Stochastic population models in ecology and epidemiology, 1960.
  • D. Vere-Jones, Geometric ergodicity in denumerable Markov chains, Quarterly Journal of Mathematics no 13, 1962, p. 7–28. doi:10.1093/qmath/13.1.7
  • J.N. Darroch, E. Seneta, On Quasi-Stationary Distributions in Absorbing Discrete-Time Finite Markov Chains, Journal of Applied Probability no 2, 1965, p. 88–100. doi:10.2307/3211876
  • icône décorative Portail des mathématiques