Inégalité de Le Cam

L’inégalité de Le Cam[1], due à Lucien Le Cam, précise la rapidité de convergence de la loi de la somme d'un grand nombre de variables de Bernoulli indépendantes de petit paramètre vers la loi de Poisson. Sa démonstration, élégante et peu calculatoire, illustre la méthode de couplage popularisée par Wolfgang Döblin.

Énoncé

Soit ( X 1 , n , X 2 , n , , X a n , n ) n 1 {\displaystyle (X_{1,n},X_{2,n},\dots ,X_{a_{n},n})_{n\geq 1}} un tableau de variables aléatoires de Bernoulli indépendantes, avec paramètres respectifs p k , n . {\displaystyle p_{k,n}.} On note

S n = k = 1 a n X k , n et λ n   =   E [ S n ] = k = 1 a n p k , n . {\displaystyle S_{n}=\sum _{k=1}^{a_{n}}\,X_{k,n}\quad {\text{et}}\quad \lambda _{n}\ =\ \mathbb {E} [S_{n}]=\sum _{k=1}^{a_{n}}\,p_{k,n}.}

Alors

Inégalité de Le Cam — Pour tout ensemble A d'entiers naturels,

| P ( S n A ) A λ n e λ n ! |     k = 1 a n p k , n 2 . {\displaystyle \left|\mathbb {P} \left(S_{n}\in A\right)-\sum _{\ell \in A}\,{\frac {\lambda _{n}^{\ell }\,e^{-\lambda _{n}}}{\ell !}}\right|\ \leq \ \sum _{k=1}^{a_{n}}\,p_{k,n}^{2}.}

En particulier, Sn suit approximativement la loi de Poisson de paramètre λ dès que les deux conditions suivantes sont réunies :

  • lim n λ n = λ > 0 ,   {\displaystyle \lim _{n}\lambda _{n}\,=\,\lambda >0,\ }
  • lim n k = 1 a n p k , n 2 = 0.   {\displaystyle \lim _{n}\sum _{k=1}^{a_{n}}\,p_{k,n}^{2}\,=\,0.\ }

En effet, l'inégalité de Le Cam entraine que :

N   | P ( S n = ) λ n e λ n ! |     2   k = 1 a n p k , n 2 . {\displaystyle \sum _{\ell \in \mathbb {N} }\ \left|\mathbb {P} \left(S_{n}=\ell \right)-\,{\frac {\lambda _{n}^{\ell }\,e^{-\lambda _{n}}}{\ell !}}\right|\ \leq \ 2\ \sum _{k=1}^{a_{n}}\,p_{k,n}^{2}.}

Conséquence : paradigme de Poisson

Posons

M n = max 1 k a n p k , n . {\displaystyle M_{n}=\max _{1\leq k\leq a_{n}}\,p_{k,n}.}

On a les inégalités :

M n 2 1 k a n p k , n 2 M n λ n , et a n λ n / M n , {\displaystyle M_{n}^{2}\leq \sum _{1\leq k\leq a_{n}}\,p_{k,n}^{2}\leq M_{n}\lambda _{n},\quad {\text{et}}\quad a_{n}\geq \lambda _{n}/M_{n},}

donc les deux conditions lim n λ n = λ > 0 ,   {\displaystyle \lim _{n}\lambda _{n}\,=\,\lambda >0,\ } et lim n k = 1 a n p k , n 2 = 0 ,   {\displaystyle \lim _{n}\sum _{k=1}^{a_{n}}\,p_{k,n}^{2}\,=\,0,\ } apparaissant à la section précédente, entrainent que

  • lim n M n = 0 ,   {\displaystyle \lim _{n}M_{n}\,=\,0,\ }
  • lim n a n = + .   {\displaystyle \lim _{n}a_{n}\,=\,+\infty .\ }

Les deux conditions lim n M n = 0   {\displaystyle \lim _{n}M_{n}\,=\,0\ } et lim n a n = +   {\displaystyle \lim _{n}a_{n}\,=\,+\infty \ } sont souvent reformulées informellement de la manière suivante :

Paradigme de Poisson —  La somme Sn d'un grand nombre de variables de Bernoulli indépendantes de petit paramètre suit approximativement la loi de Poisson de paramètre E [ S n ] . {\displaystyle \mathbb {E} [S_{n}].}

Remarques

  • Cette propriété peut rester vraie si l'on relaxe l'hypothèse d'indépendance, comme on le voit dans le cas du nombre de points fixes d'une permutation tirée au hasard. Le paradigme de Poisson a été généralisé dans de nombreuses directions[2].
  • Le cas particulier an=n, λn=λ/n de l'inégalité de Le Cam précise la rapidité de convergence de la loi binomiale de paramètres n et λ/n vers la loi de Poisson de paramètre λ.

Démonstration

Couplage loi de Bernoulli-loi de Poisson

L'idée est d'exhiber une loi de probabilité μp, sur le plan, dont la première marginale est une loi de Bernoulli, la seconde une loi de Poisson, toutes deux d'espérance p, telle que le poids de la première bissectrice soit maximal. En d'autres termes, il s'agit de construire, sur un espace probabilisé bien choisi, deux variables aléatoires réelles X et Y, X suivant la loi de Bernoulli de paramètre p, Y suivant la loi de Poisson de paramètre p, de sorte que P ( X Y ) {\displaystyle \mathbb {P} (X\neq Y)} soit minimal, ou, du moins, suffisamment petit, μp étant alors la loi jointe du couple (X,Y). Il est clair que

P ( X = Y = k ) min ( P ( X = k ) , P ( Y = k ) ) , {\displaystyle \mathbb {P} (X=Y=k)\leq \min \left(\mathbb {P} (X=k),\mathbb {P} (Y=k)\right),}

donc que

P ( X = Y ) k   min ( P ( X = k ) , P ( Y = k ) ) . {\displaystyle \mathbb {P} (X=Y)\leq \sum _{k}\ \min \left(\mathbb {P} (X=k),\mathbb {P} (Y=k)\right).}

Dans le cas Poisson-Bernoulli, cette borne est atteinte en utilisant le théorème de la réciproque, de manière à construire X et Y sur l'intervalle ]0,1[ muni de la mesure de Lebesgue[3]. Ainsi

X ( ω )   =   1 1 [ 1 p , 1 [ ( ω ) , {\displaystyle X(\omega )\ =\ 1\!\!1_{[1-p,1[}(\omega ),}

alors que

Y ( ω )   =   1 1 [ e p , ( 1 + p ) e p [ ( ω ) + 2 1 1 [ ( 1 + p ) e p , ( 1 + p + ( p 2 / 2 ) ) e p [ ( ω ) + , {\displaystyle Y(\omega )\ =\ 1\!\!1_{[e^{-p},(1+p)e^{-p}[}(\omega )\,+\,2\,1\!\!1_{[(1+p)e^{-p},(1+p+(p^{2}/2))e^{-p}[}(\omega )\,+\,\dots ,}

En ce cas, X et Y coïncident sur les intervalles :

  • ]0,1-p[, où les 2 variables valent 0,
  • et [e-p,(1+p)e-p[, où les 2 variables valent 1.

Les deux variables diffèrent sur le complémentaire de la réunion de ces deux intervalles, i.e. sur [1-p,1[ \ [e-p,(1+p)e-p[. Ainsi,

P ( X = Y ) = k   min ( P ( X = k ) , P ( Y = k ) ) = min ( 1 p , e p ) + min ( p , p e p ) = 1 p + p e p , {\displaystyle \mathbb {P} (X=Y)=\sum _{k}\ \min \left({\scriptstyle \mathbb {P} (X=k),\mathbb {P} (Y=k)}\right)=\min(1-p,e^{-p})+\min(p,pe^{-p})=1-p+pe^{-p},}

et

μ p ( { ( x , y ) | x y } )   =   P ( X Y )   =   p ( 1 e p )     p 2 . {\displaystyle \mu _{p}(\{(x,y)\,|\,x\neq y\})\ =\ \mathbb {P} (X\neq Y)\ =\ p\left(1-e^{-p}\right)\ \leq \ p^{2}.}

Conclusion

On se donne une suite de variables aléatoires indépendantes ( Z k , n ) 1 k n , {\displaystyle (Z_{k,n})_{1\leq k\leq n},} à valeurs dans le plan, telle que la loi de probabilité de chaque terme Z k , n {\displaystyle Z_{k,n}} de la suite est μ p k , n . {\displaystyle \mu _{p_{k,n}}.} On note X k , n {\displaystyle X_{k,n}} et Y k , n {\displaystyle Y_{k,n}} les deux coordonnées de Z k , n , {\displaystyle Z_{k,n},} et on pose

W n = k = 1 a n Y k , n . {\displaystyle W_{n}=\sum _{k=1}^{a_{n}}\,Y_{k,n}.}

Ainsi :

  • les X k , n {\displaystyle X_{k,n}} sont indépendantes et suivent des lois de Bernoulli de paramètres p k , n   ; {\displaystyle p_{k,n}\ ;}
  • leur somme Sn a donc la loi que nous voulons étudier ;
  • les Y k , n {\displaystyle Y_{k,n}} sont indépendantes et suivent des lois de Poisson de paramètres p k , n   ; {\displaystyle p_{k,n}\ ;}
  • Wn suit la loi de Poisson de paramètre λ n   =   k = 1 a n p k , n , {\displaystyle \lambda _{n}\ =\ \sum _{k=1}^{a_{n}}\,p_{k,n},} étant la somme de variables de Poisson indépendantes de paramètres p k , n   ; {\displaystyle p_{k,n}\ ;}
  • en particulier, l'approximation proposée pour P ( S n A ) {\displaystyle \mathbb {P} \left(S_{n}\in A\right)} se trouve être :
P ( W n A )   =   A λ n e λ n !   ; {\displaystyle \mathbb {P} \left(W_{n}\in A\right)\ =\ \sum _{\ell \in A}\,{\frac {\lambda _{n}^{\ell }\,e^{-\lambda _{n}}}{\ell !}}\ ;}
  • P ( X k , n Y k , n )     p k , n 2 . {\displaystyle \mathbb {P} (X_{k,n}\neq Y_{k,n})\ \leq \ p_{k,n}^{2}.}

On a

P ( S n A ) P ( W n A ) P ( S n A ) P ( W n A  et  S n A ) = P ( S n A  et  W n A ) P ( S n W n ) {\displaystyle {\begin{aligned}\mathbb {P} \left(S_{n}\in A\right)-\mathbb {P} \left(W_{n}\in A\right)&\leq \mathbb {P} \left(S_{n}\in A\right)-\mathbb {P} \left(W_{n}\in A{\text{ et }}S_{n}\in A\right)\\&=\mathbb {P} \left(S_{n}\in A{\text{ et }}W_{n}\notin A\right)\\&\leq \mathbb {P} \left(S_{n}\neq W_{n}\right)\end{aligned}}}

et, en échangeant le rôle de Wn et celui de Sn ,

| P ( S n A ) P ( W n A ) | P ( S n W n ) . {\displaystyle \left|\mathbb {P} \left(S_{n}\in A\right)-\mathbb {P} \left(W_{n}\in A\right)\right|\leq \mathbb {P} \left(S_{n}\neq W_{n}\right).}

Par ailleurs, comme

{ S n W n }     { k  tel que  X k , n Y k , n } , {\displaystyle \{S_{n}\neq W_{n}\}\ \subset \ \left\{\exists k{\text{ tel que }}X_{k,n}\neq Y_{k,n}\right\},}

on en déduit que

{ ω Ω | S n ( ω ) W n ( ω ) }     1 k a n { ω Ω | X k , n ( ω ) Y k , n ( ω ) } , {\displaystyle \{\omega \in \Omega \,|\,S_{n}(\omega )\neq W_{n}(\omega )\}\ \subset \ \bigcup _{1\leq k\leq a_{n}}\left\{\omega \in \Omega \,|\,X_{k,n}(\omega )\neq Y_{k,n}(\omega )\right\},}

Finalement

P ( S n W n )     1 k a n P ( X k , n Y k , n )     1 k a n   p k , n 2 . {\displaystyle \mathbb {P} \left(S_{n}\neq W_{n}\right)\ \leq \ \sum _{1\leq k\leq a_{n}}\mathbb {P} \left(\,X_{k,n}\neq Y_{k,n}\right)\ \leq \ \sum _{1\leq k\leq a_{n}}\ p_{k,n}^{2}.}

À voir

Notes

  1. Article original : (en) L. Le Cam, « An Approximation Theorem for the Poisson Binomial Distribution », Pacific Journal of Mathematics, vol. 10, no 4,‎ , p. 1181–1197 (lire en ligne, consulté le ). Une référence accessible en ligne est (en) Torgny Lindvall, Lectures on the coupling method, New York/Chichester/Brisbane (Australia), John Wiley & Sons, , 1re éd., 257 p. (ISBN 0-471-54025-0), p. 4-6.
  2. (en) A. D. Barbour, L. Holst et S. Janson, Poisson approximation, Oxford, The Clarendon Press Oxford University Press, , 277 p. (ISBN 0-19-852235-5).
  3. Voir (en) Torgny Lindvall, Lectures on the coupling method, New York/Chichester/Brisbane (Australia), John Wiley & Sons, , 1re éd., 257 p. (ISBN 0-471-54025-0), p. 18-20, Section 1.5, particulièrement le Théorème 5.2, pour une discussion du lien avec la distance en variation, et pour une preuve de ce que cette borne peut toujours être atteinte à l'aide d'une construction appropriée de X et Y.

Bibliographie

  • (en) Torgny Lindvall, Lectures on the Coupling Method, Dover Publications, , 2e éd., 272 p., paperback (ISBN 0-486-42145-7 et 978-0486421452, lire en ligne)

Pages liées

  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail des mathématiques