Inégalité de Kolmogorov

L'inégalité de Kolmogorov[1], due à Andreï Kolmogorov, est une étape essentielle de sa démonstration de la loi forte des grands nombres, un des principaux théorèmes de la théorie des probabilités. C'est l'étape où il utilise l'hypothèse d'indépendance (et, sans le dire, la notion de temps d'arrêt).

Énoncé

Inégalité de Kolmogorov. — Soit une suite ( Y n ) n 1 {\displaystyle \textstyle \left(Y_{n}\right)_{n\geq 1}} de v.a.r. indépendantes et centrées. Posons

W n = Y 1 + Y 2 + + Y n . {\displaystyle W_{n}=Y_{1}+Y_{2}+\cdots +Y_{n}.}

Alors, pour tout x > 0 {\displaystyle \textstyle x>0} ,

P ( sup { | W n | | n 1 } > x ) n 1 Var ( Y n ) x 2 . {\displaystyle \mathbb {P} \left(\sup \left\{\left|W_{n}\right|\,|\,n\geq 1\right\}>x\right)\leq {\frac {\sum _{n\geq 1}{\text{Var}}\left(Y_{n}\right)}{x^{2}}}.}
Remarques :
  • L'inégalité
P ( | W n | > x ) n 1 Var ( Y n ) x 2 {\displaystyle \mathbb {P} \left(\left|W_{n}\right|>x\right)\leq {\frac {\sum _{n\geq 1}{\text{Var}}\left(Y_{n}\right)}{x^{2}}}}
est une conséquence immédiate de l'inégalité de Bienaymé-Tchebychev. La présence du sup rend l'inégalité beaucoup plus précise, donc plus difficile à démontrer.

Démonstration

Si n 1 Var ( Y n ) = + {\displaystyle \textstyle \sum _{n\geq 1}{\text{Var}}\left(Y_{n}\right)=+\infty } , l'inégalité est vérifiée. Dans la suite, on suppose que

n 1 Var ( Y n ) < + . {\displaystyle \sum _{n\geq 1}{\text{Var}}\left(Y_{n}\right)<+\infty .}

On pose

σ = { +     si  { k 1   |   | W k | > x } = , inf { k 1   |   | W k | > x }     sinon. {\displaystyle \sigma =\left\{{\begin{array}{lll}+\infty &\ \ &{\text{si }}\left\{k\geq 1\ |\ \left|W_{k}\right|>x\right\}=\emptyset ,\\&&\\\inf \left\{k\geq 1\ |\ \left|W_{k}\right|>x\right\}&\ \ &{\text{sinon.}}\end{array}}\right.}

On remarque alors que, pour k n {\displaystyle \textstyle k\leq n} ,

W k 1 σ = k     W n W k . {\displaystyle W_{k}1_{\sigma =k}\ \bot \ W_{n}-W_{k}.}

En effet W n W k = Y k + 1 + Y k + 2 + + Y n {\displaystyle \textstyle W_{n}-W_{k}=Y_{k+1}+Y_{k+2}+\dots +Y_{n}} , alors que

{ σ = k } = { | W 1 | x , | W 2 | x , , | W k 1 | x  et  | W k | > x } = { | Y 1 | x ,   | Y 1 + Y 2 | x ,   ,   | Y 1 + + Y k 1 | x  et  | Y 1 + + Y k | > x } . {\displaystyle {\begin{aligned}\left\{\sigma =k\right\}&=\left\{\left|W_{1}\right|\leq x,\left|W_{2}\right|\leq x,\dots ,\left|W_{k-1}\right|\leq x{\text{ et }}\left|W_{k}\right|>x\right\}\\&=\left\{\left|Y_{1}\right|\leq x,\ \left|Y_{1}+Y_{2}\right|\leq x,\ \dots ,\ \left|Y_{1}+\dots +Y_{k-1}\right|\leq x{\text{ et }}\left|Y_{1}+\dots +Y_{k}\right|>x\right\}.\end{aligned}}}

Ainsi pour deux boréliens quelconques A {\displaystyle \textstyle A} et B {\displaystyle \textstyle B} , les deux évènements

{ W k 1 σ = k A }  et  { W n W k B } {\displaystyle \left\{W_{k}1_{\sigma =k}\in A\right\}{\text{ et }}\left\{W_{n}-W_{k}\in B\right\}}

appartiennent aux tribus σ ( Y 1 , Y 2 , , Y k ) {\displaystyle \textstyle \sigma \left(Y_{1},Y_{2},\dots ,Y_{k}\right)} et σ ( Y k + 1 , Y k + 2 , , Y n ) {\displaystyle \textstyle \sigma \left(Y_{k+1},Y_{k+2},\dots ,Y_{n}\right)} , respectivement. Ils sont donc indépendants en vertu du lemme de regroupement, ce qui implique bien   W k 1 σ = k     W n W k {\displaystyle \ \textstyle W_{k}1_{\sigma =k}\ \bot \ W_{n}-W_{k}} . On a

k = 1 n Var ( Y k ) = Var ( W n )   =   E [ W n 2 ] E [ W n 2 1 σ < + ] = k 1   E [ W n 2   1 σ = k ] k = 1 n   E [ W n 2 1 σ = k ] = k = 1 n   E [ ( W n W k + W k ) 2 1 σ = k ] k = 1 n   E [ W k 2 1 σ = k ] + 2 E [ W n W k ] E [ W k 1 σ = k ] = k = 1 n   E [ W k 2 1 σ = k ] k = 1 n   E [ x 2 1 σ = k ] = x 2 P ( σ n ) , {\displaystyle {\begin{aligned}\sum _{k=1}^{n}\,{\text{Var}}\left(Y_{k}\right)&={\text{Var}}\left(W_{n}\right)\ =\ \mathbb {E} \left[W_{n}^{2}\right]\\&\geq \mathbb {E} \left[W_{n}^{2}1_{\sigma <+\infty }\right]\\&=\sum _{k\geq 1}\ \mathbb {E} \left[W_{n}^{2}\ 1_{\sigma =k}\right]\\&\geq \sum _{k=1}^{n}\ \mathbb {E} \left[W_{n}^{2}1_{\sigma =k}\right]\\&=\sum _{k=1}^{n}\ \mathbb {E} \left[\left(W_{n}-W_{k}+W_{k}\right)^{2}1_{\sigma =k}\right]\\&\geq \sum _{k=1}^{n}\ \mathbb {E} \left[W_{k}^{2}1_{\sigma =k}\right]+2\mathbb {E} \left[W_{n}-W_{k}\right]\mathbb {E} \left[W_{k}1_{\sigma =k}\right]\\&=\sum _{k=1}^{n}\ \mathbb {E} \left[W_{k}^{2}1_{\sigma =k}\right]\\&\geq \sum _{k=1}^{n}\ \mathbb {E} \left[x^{2}1_{\sigma =k}\right]\\&=x^{2}\mathbb {P} \left(\sigma \leq n\right),\end{aligned}}}

où la troisième inégalité s'obtient en développant le carré en deux termes carrés (dont l'un est supprimé pour minorer l'expression précédente) et un double produit (de deux variables indépendantes, en vertu de   W k 1 σ = k     W n W k {\displaystyle \ \textstyle W_{k}1_{\sigma =k}\ \bot \ W_{n}-W_{k}} ). L'égalité suivante tient à ce que W n W k {\displaystyle \textstyle W_{n}-W_{k}} est centrée (comme somme de v.a. centrées), et la dernière inégalité découle de la définition du temps d'arrêt σ {\displaystyle \textstyle \sigma }  : par définition, au temps σ {\displaystyle \textstyle \sigma } , on a W σ > x {\displaystyle \textstyle W_{\sigma }>x} . En faisant tendre n {\displaystyle \textstyle n} vers l'infini on obtient

k 1 Var ( Y k ) x 2   P ( σ < + ) , = x 2   P ( { k 1   |   | W k | > x } ) , = x 2   P ( sup { | W n | | n 1 } > x ) , {\displaystyle {\begin{aligned}\sum _{k\geq 1}\,{\text{Var}}\left(Y_{k}\right)&\geq x^{2}\ \mathbb {P} \left(\sigma <+\infty \right),\\&=x^{2}\ \mathbb {P} \left(\left\{k\geq 1\ |\ \left|W_{k}\right|>x\right\}\neq \emptyset \right),\\&=x^{2}\ \mathbb {P} \left(\sup \left\{\left|W_{n}\right|\,|\,n\geq 1\right\}>x\right),\end{aligned}}}

C.Q.F.D.

Notes

  1. On peut en trouver l'énoncé, la démonstration et le contexte, page 248 du livre de P. Billingley, Probability and measure, Wiley, 1re édition, 1979.
  • icône décorative Portail des probabilités et de la statistique