Temps d'arrêt

Temps d'impact et temps d'arrêt de trois échantillons de mouvement brownien.

En théorie des probabilités, en particulier dans l'étude des processus stochastiques, un temps d'arrêt (également appelé temps d'arrêt optionnel, et correspondant à un temps de Markov ou moment de Markov défini[1]) est une variable aléatoire dont la valeur est interprétée comme le moment auquel le comportement d'un processus stochastique donné présente un certain intérêt. Un temps d'arrêt est souvent défini par une règle d'arrêt, un mécanisme permettant de décider de poursuivre ou d'arrêter un processus sur la base de la position actuelle et des événements passés[2].

Ce temps d'arrêt peut être par exemple le moment où un processus stochastique prend fin, ou, dans un processus de Poisson et autres processus de Lévy à accroissements indépendants stationnaires, le moment d'un « saut » incrémental[2].

Cette notion de temps d'arrêt ne s'appuyant sur aucun évènement futur est étroitement lié à la propriété forte des processus de Markov[1].

Les temps d'arrêt jouent un rôle important dans la théorie de la décision, et dans les martingales, sont régis par le théorème d'arrêt de Doob (ou théorème d'arrêt optionnel)[2].

Définitions

Définition — Une variable aléatoire T : Ω N { } {\displaystyle T:\Omega \rightarrow \mathbb {N} \cup \{\infty \}} est un temps d'arrêt par rapport à une filtration ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} si,

n N , { T = n } F n , {\displaystyle \forall n\in \mathbb {N} ,\quad \{T=n\}\in {\mathcal {F}}_{n},}

ou bien, de manière équivalente, si,

n N , { T n } F n . {\displaystyle \forall n\in \mathbb {N} ,\quad \{T\leq n\}\in {\mathcal {F}}_{n}.}

Interprétation

Imaginons que F n   {\textstyle {\mathcal {F}}_{n}\ } désigne ici la tribu engendrée par la suite ( X k ) 0 k n ,   {\textstyle (X_{k})_{0\leq k\leq n},\ } et que les variables aléatoires X k   {\textstyle X_{k}\ } représentent les résultats d'un joueur lors des parties successives d'un jeu. Dans le cas de variables aléatoires à valeurs dans un espace d'états E   {\textstyle E\ } fini ou dénombrable, une partie A Ω   {\textstyle A\subset \Omega \ } appartient à F n   {\textstyle {\mathcal {F}}_{n}\ } si et seulement s'il existe B E n + 1   {\textstyle B\subset E^{n+1}\ } tel que

A = { ( X 0 , X 1 , , X n ) B } = { ω Ω   |   ( X k ( ω ) ) 0 k n B } . {\displaystyle {\begin{aligned}A&=\left\{(X_{0},X_{1},\dots ,X_{n})\in B\right\}\\&=\left\{\omega \in \Omega \ |\ \left(X_{k}(\omega )\right)_{0\leq k\leq n}\in B\right\}.\end{aligned}}}

Supposons que T   {\textstyle T\ } représente le numéro de la partie après laquelle le joueur décide d'arrêter de jouer : T   {\textstyle T\ } est donc un temps d'arrêt si et seulement si la décision d'arrêter est prise en fonction des résultats des parties déjà jouées au moment de l'arrêt, i.e. si pour tout n   {\textstyle n\ } il existe un sous ensemble B n E n + 1   {\textstyle B_{n}\subset E^{n+1}\ } tel que :

{ T = n } { ( X 0 , X 1 , , X n ) B n } . {\displaystyle \{T=n\}\quad \Leftrightarrow \quad \left\{(X_{0},X_{1},\dots ,X_{n})\in B_{n}\right\}.}

L'instant où le joueur s'arrête est donc un temps d'arrêt si la décision d'arrêt ne tient pas compte des résultats des parties futures, donc sous l'hypothèse que don de double-vue et tricherie sont exclus.

Notations

  • Soient ( X n ) n 0   {\displaystyle (X_{n})_{n}\geq 0\ } une suite de variables aléatoires (un processus stochastique) et T un temps d'arrêt par rapport à une filtration ( F n ) n 0 {\displaystyle ({\mathcal {F}}_{n})_{n\geq 0}} . Le processus observé au temps T (ou arrêté au temps T) est noté   X T ( ω ) ,   {\displaystyle \ X_{T}(\omega ),\ } et est défini par
X T ( ω ) = X T ( ω ) ( ω ) = n 0 X n ( ω ) 1 1 T ( ω ) = n . {\displaystyle {\begin{aligned}X_{T}(\omega )&=X_{T(\omega )}(\omega )\\&=\sum _{n\geq 0}X_{n}(\omega )1\!\!1_{T(\omega )=n}.\end{aligned}}}
Sur l'ensemble { ω Ω | T ( ω ) = + } ,   {\displaystyle \{\omega \in \Omega \,|\,T(\omega )=+\infty \},\ } la définition de   X T ( ω )   {\displaystyle \ X_{T}(\omega )\ } est problématique : l'ambigüité est de facto levée en posant   X T ( ω ) = 0.   {\displaystyle \ X_{T}(\omega )=0.\ }
  • Soit T {\displaystyle T\,} un temps d'arrêt et soit N N : {\displaystyle N\in \mathbb {N} :}
    • T N {\displaystyle T\wedge N} est la variable aléatoire définie par ( T N ) ( ω ) = min ( T ( ω ) , N ) ; {\displaystyle (T\wedge N)(\omega )=\min(T(\omega ),N)\,;}
    • T N {\displaystyle T\vee N} est la variable aléatoire définie par ( T N ) ( ω ) = max ( T ( ω ) , N ) {\displaystyle (T\vee N)(\omega )=\max(T(\omega ),N)\,} .

Propriétés

Propriété — Soit T {\displaystyle T\,} un temps d'arrêt, soit N N {\displaystyle N\in \mathbb {N} } . Alors S := T N ,   S := T N   {\displaystyle S:=T\wedge N,\ S^{\prime }:=T\vee N\ } et   S := T + N   {\displaystyle \ S^{\prime \prime }:=T+N\ } sont des temps d'arrêt.

Démonstration

On ne démontrera que le premier point, les deux autres étant semblables :

{ S = n } = { T N = n } = { T = n , n N } { n = N , T N } . {\displaystyle \{S=n\}=\{T\wedge N=n\}=\{T=n,n\leq N\}\cup \{n=N,T\geq N\}.}

Or

{ T = n } F n    et  { T N } = { T N 1 } c F N 1 F N . {\displaystyle \{T=n\}\in {\mathcal {F}}_{n}\ {\text{ et }}\{T\geq N\}=\{T\leq N-1\}^{c}\in {\mathcal {F}}_{N-1}\subset {\mathcal {F}}_{N}.}

Propriété — De même, si S   e t   T {\displaystyle S\ et\ T} sont des temps d'arrêt, alors S T {\displaystyle S\wedge T} en est un.

Définition et propriété — Soit T {\displaystyle T\,} un temps d'arrêt et A F   :   A {\displaystyle A\in {\mathcal {F}}_{\infty }\ :\ A\,} est appelé évènement antérieur à T {\displaystyle T\,} si:

n N   A ( T = n ) F n . {\displaystyle \forall n\in \mathbb {N} \ A\cap (T=n)\in {\mathcal {F}}_{n}.}

L'ensemble de ces évènements forme une sous-tribu de F {\displaystyle {\mathcal {F}}_{\infty }} appelée tribu antérieure à T {\displaystyle T\,} et notée F T . {\displaystyle {\mathcal {F}}_{T}.}

Démonstration
  • F T {\displaystyle {\mathcal {F}}_{T}} contient Ω {\displaystyle \Omega \,}
  • F T {\displaystyle {\mathcal {F}}_{T}} est stable par réunion dénombrable
  • Soit n N {\displaystyle n\in \mathbb {N} } . On a A ( T = n ) F n   e t   ( T = n ) F n .   {\displaystyle A\cap (T=n)\in {\mathcal {F}}_{n}\ et\ (T=n)\in {\mathcal {F}}_{n}.\ } D'où
F n ( T = n ) ( A ( T = n ) ) c = ( T = n ) ( A c ( T n ) ) {\displaystyle {\mathcal {F}}_{n}\ni (T=n)\cap (A\cap (T=n))^{c}=(T=n)\cap (A^{c}\cup (T\neq n))}

= ( ( T = n ) A c ) ( ( T = n ) ( T n ) ) = ( ( T = n ) A c ) = A c ( T = n ) {\displaystyle =((T=n)\cap A^{c})\cup ((T=n)\cap (T\neq n))=((T=n)\cap A^{c})\cup \emptyset =A^{c}\cap (T=n)} ,

et F T {\displaystyle {\mathcal {F}}_{T}} est stable par complémentarité.

Proposition — Soient S {\displaystyle S\,} et T {\displaystyle T\,} deux temps d'arrêt tels que S T {\displaystyle S\leq T} p.s.. On a alors F S F T {\displaystyle {\mathcal {F}}_{S}\subset {\mathcal {F}}_{T}} .

Démonstration

Soit A F S {\displaystyle A\in {\mathcal {F}}_{S}} , c’est-à-dire n N   ,   A ( S n ) F n {\displaystyle \forall n\in \mathbb {N} \ ,\ A\cap (S\leq n)\in {\mathcal {F}}_{n}} . Comme de plus S T {\displaystyle S\leq T\,} p.s., ( T n ) ( S n ) {\displaystyle (T\leq n)\subset (S\leq n)} . Par suite,

A ( T n ) = A ( T n ) ( S n ) . {\displaystyle A\cap (T\leq n)=A\cap (T\leq n)\cap (S\leq n).}

Or A ( S n ) F n {\displaystyle A\cap (S\leq n)\in {\mathcal {F}}_{n}} et ( T n ) F n {\displaystyle (T\leq n)\in {\mathcal {F}}_{n}} car T {\displaystyle T\,} est un temps d'arrêt. Donc

A ( T n ) F n . {\displaystyle A\cap (T\leq n)\in {\mathcal {F}}_{n}.}

Lemme — Soit Z {\displaystyle Z\,} une variable aléatoire F {\displaystyle {\mathcal {F}}_{\infty }} -mesurable. Z {\displaystyle Z\,} est F T {\displaystyle {\mathcal {F}}_{T}} -mesurable ssi n   ,   1 1 ( T = n ) × Z {\displaystyle \forall n\ ,\ 1\!\!1_{(T=n)}\times Z} est F n {\displaystyle {\mathcal {F}}_{n}} -mesurable.

Démonstration
Sens réciproque

Z {\displaystyle Z\,} est F T {\displaystyle {\mathcal {F}}_{T}} -mesurable. ( 1 1 ( T = n ) × Z ) 1 ( x ) = Z 1 ( x ) ( T = n ) {\displaystyle (1\!\!1_{(T=n)}\times Z)^{-1}(x)=Z^{-1}(x)\cap (T=n)} avec Z 1 ( x ) F T . {\displaystyle Z^{-1}(x)\in {\mathcal {F}}_{T}.}

Or F T = { A F / n   A ( T = n ) F n } . {\displaystyle {\mathcal {F}}_{T}=\{A\in {\mathcal {F}}_{\infty }/\forall n\ A\cap (T=n)\in {\mathcal {F}}_{n}\}.}

Donc Z 1 ( x ) ( T = n ) F n . {\displaystyle Z^{-1}(x)\cap (T=n)\in {\mathcal {F}}_{n}.}

Finalement 1 1 ( T = n ) × Z {\displaystyle 1\!\!1_{(T=n)}\times Z\,} est F n {\displaystyle {\mathcal {F}}_{n}} -mesurable.

Sens direct

( 1 1 ( T = n ) Z ) 1 ( x ) = Z 1 ( x ) ( T = n ) F n {\displaystyle (1\!\!1_{(T=n)}*Z)^{-1}(x)=Z^{-1}(x)\cap (T=n)\in {\mathcal {F}}_{n}}

avec de plus Z 1 ( x ) F {\displaystyle Z^{-1}(x)\in {\mathcal {F}}_{\infty }} . D'où Z 1 ( x ) F T {\displaystyle Z^{-1}(x)\in {\mathcal {F}}_{T}} (d'après la définition de F T {\displaystyle {\mathcal {F}}_{T}} ). Donc Z {\displaystyle Z\,} est F T {\displaystyle {\mathcal {F}}_{T}} -mesurable.

Proposition —  X T {\displaystyle X_{T}\,} est F T {\displaystyle {\mathcal {F}}_{T}} -mesurable.

Démonstration
X T = n 1 1 ( T = n ) X T + 1 1 ( T = ) X = n 1 1 ( T = n ) X n + 1 ( T = ) X {\displaystyle {\begin{aligned}X_{T}&=\sum _{n}1\!\!1_{(T=n)}X_{T}+1\!\!1_{(T=\infty )}X_{\infty }\\&=\sum _{n}1\!\!1_{(T=n)}X_{n}+1_{(T=\infty )}X_{\infty }\end{aligned}}}

avec 1 1 ( T = n )   e t   X n {\displaystyle 1\!\!1_{(T=n)}\ et\ X_{n}} qui sont F n {\displaystyle {\mathcal {F}}_{n}} -mesurable, d'où X T × 1 1 ( T = n ) {\displaystyle X_{T}\times 1\!\!1_{(T=n)}\,} est F n {\displaystyle {\mathcal {F}}_{n}} -mesurable. D'après le lemme précédent, X T {\displaystyle X_{T}\,} est F T {\displaystyle {\mathcal {F}}_{T}} -mesurable.

Exemples et contre-exemples

Considérons une suite X = ( X k ) k 0   {\textstyle X=(X_{k})_{k\geq 0}\ } de variable aléatoires, à valeurs dans un ensemble E ,   {\textstyle E,\ } et notons F n   {\textstyle {\mathcal {F}}_{n}\ } la tribu engendrée par la suite ( X k ) 0 k n .   {\textstyle (X_{k})_{0\leq k\leq n}.\ } Les variables aléatoires ci-dessous sont des temps d'arrêt pour la filtration ( F n ) n 0 {\textstyle ({\mathcal {F}}_{n})_{n\geq 0}}  :

  • Soit j   {\textstyle j\ } un élément de E   {\textstyle E\ }  ; on appelle instant de premier retour en j ,   {\textstyle j,\ } et on note R j ,   {\textstyle R_{j},\ } la variable aléatoire définie ci-dessous :
R j = { inf { n > 0 | X n = j } si { n > 0 | X n = j } , + sinon. {\displaystyle R_{j}=\left\{{\begin{array}{lll}\inf \left\{n>0\,\vert \,X_{n}=j\right\}&&{\textrm {si}}\quad \left\{n>0\,\vert \,X_{n}=j\right\}\neq \emptyset ,\\+\infty &&{\textrm {sinon.}}\end{array}}\right.}
  • De même pour C   {\textstyle C\ } une partie de E ,   {\textstyle E,\ } on appelle instant de première entrée dans C ,   {\textstyle C,\ } et on note T C ,   {\textstyle T_{C},\ } la variable aléatoire ci-dessous définie :
T C = { inf { n 0 | X n C } si { n 0 | X n C } , + sinon. {\displaystyle T_{C}=\left\{{\begin{array}{lll}\inf \left\{n\geq 0\,\vert \,X_{n}\in C\right\}&&{\textrm {si}}\quad \left\{n\geq 0\,\vert \,X_{n}\in C\right\}\neq \emptyset ,\\+\infty &&{\textrm {sinon.}}\end{array}}\right.}
  • L'instant de k {\textstyle k} -ème retour en i ,   {\textstyle i,\ } noté R i ( k )   {\textstyle R_{i}^{(k)}\ } et défini par récurrence par :
R i ( k ) = { inf { n > R i ( k 1 ) | X n = i } si { n > R i ( k ) | X n = i } , + sinon. , {\displaystyle R_{i}^{(k)}=\left\{{\begin{array}{lll}\inf \left\{n>R_{i}^{(k-1)}\,\vert \,X_{n}=i\right\}&&{\textrm {si}}\quad \left\{n>R_{i}^{(k)}\,\vert \,X_{n}=i\right\}\neq \emptyset ,\\+\infty &&{\textrm {sinon.}}\end{array}}\right.,}
ou encore l'instant de k {\textstyle k} -ème entrée dans C ,   {\textstyle C,\ } sont des temps d'arrêt.
  • Pour i   {\textstyle i\ } et j   {\textstyle j\ } dans E ,   {\textstyle E,\ } on pose T = inf { n 0 | X n = i  et  X n + 1 = j } .   {\textstyle T=\inf \left\{n\geq 0\,\vert \,X_{n}=i{\text{ et }}X_{n+1}=j\right\}.\ } On peut montrer que T   {\textstyle T\ } n'est pas un temps d'arrêt, mais que, par contre, T + 1   {\textstyle T+1\ } est un temps d'arrêt.

Références

  1. a et b (en) Michiel Hazewinkel, Encyclopaedia of Mathematics, Springer Science & Business Media, (ISBN 978-94-009-5991-0, lire en ligne), p. 100, 110.
  2. a b et c (en) Geoffrey Grimmett et David Stirzaker, Probability and random processes, Oxford ; New York : Oxford University Press, (ISBN 978-0-19-857223-7 et 978-0-19-857222-0, lire en ligne), p. 263, 264, 498, 499.

Articles connexes

  • icône décorative Portail des probabilités et de la statistique