Inégalité de Berry-Esseen

Le théorème central limite en probabilité et statistiques établit que sous certaines conditions la moyenne d'échantillons, considérée comme une variable aléatoire, est distribuée selon une loi qui tend de plus en plus vers la loi normale lorsque la taille de l'échantillon augmente. L’inégalité de Berry-Esseen, connue aussi sous le nom de théorème de Berry-Esseen, essaie de quantifier la vitesse avec laquelle s'effectue la convergence vers la loi normale.

Histoire

L'inégalité a été découverte par deux mathématiciens, Andrew C. Berry en 1941 et Carl-Gustav Esseen en 1942[1],[2]. Ce dernier l'améliora avec d'autres auteurs plusieurs fois dans les décennies qui suivirent[3]. En particulier, Irina G. Shevtsova affina en 2006 l'estimation de la constante C par rapport aux estimations données par Berry et Esseen[4],[5].

Théorème simplifié

Illustration de la différence entre les courbes des fonctions de répartition à laquelle fait allusion le théorème.

Une des versions, sacrifiant la généralité à la clarté établit que :

Théorème —  Il existe une constante C telle que si X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\cdots ,X_{n}} sont des variables aléatoires indépendantes, identiquement distribuées, admettant des moments d'ordres de 1 à 3, d'espérance mathématique E [ X i ] = 0 {\displaystyle \mathbb {E} [X_{i}]=0} , de variance Var ( X i ) = E [ X i 2 ] = σ 2 > 0 {\displaystyle \operatorname {Var} (X_{i})=\mathbb {E} [X_{i}^{2}]=\sigma ^{2}>0} et E [ | X i | 3 ] = ρ < + {\displaystyle \mathbb {E} [|X_{i}|^{3}]=\rho <+\infty } , et si on note Y n = X 1 + X 2 + + X n n {\displaystyle Y_{n}={X_{1}+X_{2}+\cdots +X_{n} \over n}} la moyenne d'échantillon de ces variables, F n {\displaystyle F_{n}} la fonction de répartition de Y n n σ {\displaystyle {Y_{n}{\sqrt {n}} \over {\sigma }}} et Φ {\displaystyle \Phi } la fonction de répartition de la loi normale, alors pour tout x et pour tout n

| F n ( x ) Φ ( x ) | C ρ σ 3 n .         ( 1 ) {\displaystyle \left|F_{n}(x)-\Phi (x)\right|\leq {C\rho \over \sigma ^{3}\,{\sqrt {n}}}.\ \ \ \ (1)}

Pour résumer, étant donné une suite de variables aléatoires indépendantes de distributions identiques, d'espérance nulle, d'écart type strictement positif, et de moment d'ordre trois fini, la fonction de répartition de la distribution des moyennes d'échantillonnage et celle de la loi normale diffèrent — écart vertical sur la figure ci-contre — de moins d'un nombre spécifique dont le comportement asymptotique à l'infini est de l'ordre de O n + ( 1 n ) {\displaystyle {\underset {n\to +\infty }{O}}\left({\frac {1}{\sqrt {n}}}\right)} .

Course au meilleur majorant

Les valeurs calculées de la constante C ont chuté rapidement au cours des années, en partant de la valeur originale de 7,59 d'Esseen, pour aboutir à 0,4784 de Asof en 2011, en passant par 0,7882 de Van Beek en 1972, puis 0,7655 par Shiganov en 1986, 0,7056 et 0,7005 par Shevtsova en 2007 et 2008, 0,5894 de Ilya Tyurin en 2009, 0,5129 par Victor Korolev et Shevtsova en 2009, puis 0,4785 par Tyurin en 2010[6].

Théorème général

En 1941, Andrew C. Berry montra que si X 1 , X 2 , , X n {\displaystyle X_{1},X_{2},\cdots ,X_{n}} sont des variables aléatoires indépendantes d'espérance mathématique E [ X i ] = 0 {\displaystyle \mathbb {E} [X_{i}]=0} , de variances E [ X i 2 ] = σ i 2 > 0 {\displaystyle \mathbb {E} [X_{i}^{2}]=\sigma _{i}^{2}>0} et de moments d'ordre 3 E [ | X i | 3 ] = ρ i < {\displaystyle \mathbb {E} [|X_{i}|^{3}]=\rho _{i}<\infty } . Si S n = X 1 + X 2 + + X n σ 1 2 + σ 2 2 + + σ n 2 {\displaystyle S_{n}={X_{1}+X_{2}+\cdots +X_{n} \over {\sqrt {\sigma _{1}^{2}+\sigma _{2}^{2}+\cdots +\sigma _{n}^{2}}}}} est la n-ième somme partielle normalisée, F n {\displaystyle F_{n}} la fonction de répartition de S n {\displaystyle S_{n}} , et Φ {\displaystyle \Phi } celle de la distribution de Laplace-Gauss, et si on note σ = ( σ 1 , . . . , σ n ) ,   ρ = ( ρ 1 , . . . , ρ n ) {\displaystyle {\vec {\sigma }}=(\sigma _{1},...,\sigma _{n}),\ {\vec {\rho }}=(\rho _{1},...,\rho _{n})} , il existe alors une constante C 1 {\displaystyle C_{1}} telle que pour tout n, sup x | F n ( x ) Φ ( x ) | C 1 ψ 1 ,         ( 2 ) {\displaystyle \sup _{x}\left|F_{n}(x)-\Phi (x)\right|\leq C_{1}\cdot \psi _{1},\ \ \ \ (2)}

ψ 1 = ψ 1 ( σ , ρ ) = ( i = 1 n σ i 2 ) 1 / 2 max 1 i n ρ i σ i 2 {\displaystyle \psi _{1}=\psi _{1}{\big (}{\vec {\sigma }},{\vec {\rho }}{\big )}={\Big (}{\textstyle \sum \limits _{i=1}^{n}\sigma _{i}^{2}}{\Big )}^{-1/2}\cdot \max _{1\leq i\leq n}{\frac {\rho _{i}}{\sigma _{i}^{2}}}} .

De même, et indépendamment de Berry, en 1942, Carl-Gustav Esseen démontra que pour tout n il existe une constante C 0 {\displaystyle C_{0}} telle que sup x | F n ( x ) Φ ( x ) | C 0 ψ 0 ,         ( 3 ) {\displaystyle \sup _{x}\left|F_{n}(x)-\Phi (x)\right|\leq C_{0}\cdot \psi _{0},\ \ \ \ (3)}

ψ 0 = ψ 0 ( σ , ρ ) = ( i = 1 n σ i 2 ) 3 / 2 i = 1 n ρ i {\displaystyle \psi _{0}=\psi _{0}{\big (}{\vec {\sigma }},{\vec {\rho }}{\big )}={\Big (}{\textstyle \sum \limits _{i=1}^{n}\sigma _{i}^{2}}{\Big )}^{-3/2}\cdot \sum \limits _{i=1}^{n}\rho _{i}} .

Il est facile de montrer que ψ 0 ψ 1 {\displaystyle \psi _{0}\leq \psi _{1}} . À cause de ces circonstances, l'inégalité (3) est par convention appelée l'inégalité de Berry-Esseen, et la quantité ψ 0 {\displaystyle \psi _{0}} est nommée fraction de Liapounov du troisième ordre. De plus, dans le cas où les variables X i {\displaystyle X_{i}} sont identiquement distribuées ψ 0 = ψ 1 = ρ 1 σ 1 3 n {\displaystyle \psi _{0}=\psi _{1}={\frac {\rho _{1}}{\sigma _{1}^{3}{\sqrt {n}}}}} et les bornes établies dans les inégalités (1), (2) et (3) coïncident.

Minorant de C0

Concernant C 0 {\displaystyle C_{0}} la borne inférieure établie par Carl-Gustav Esseen en 1956 reste toujours valide C 0 10 + 3 6 2 π = 0 , 4097 {\displaystyle C_{0}\geq {\frac {{\sqrt {10}}+3}{6{\sqrt {2\pi }}}}=0,4097\ldots } .

Notes et références

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Berry–Esseen theorem » (voir la liste des auteurs).
  1. (en) Andrew C. Berry, « The accuracy of the Gaussian approximation to the sum of independent variates », Trans. Amer. Math. Soc., vol. 49, no 1,‎ , p. 122-136 (lire en ligne).
  2. (en) Carl-Gustav Esseen, « On the Liapunoff limit of error in the theory of probability », Arkiv for Matematik Astronomi och Fysik, vol. A28, no 9,‎ , p. 1-19 (arXiv 1111.6554).
  3. (en) Ilya Tyurin, « Some new advances in estimating the rate of convergence in Lyapunov’s theorem », dans 3rd Northern Triangular Seminar, (lire en ligne).
  4. (en) Irina G. Shevtsova, « A refinement of the upper estimate of the absolute constant in the Berry–Esseen inequality », Theory of Probability and Its Applications, vol. 51, no 3,‎ , p. 622-626.
  5. (en) Irina G. Shevtsova, « On the absolute constants in the Berry–Esseen type inequalities for identically distributed summands », preprint, (arXiv 1111.6554).
  6. (en) Victor Korolev et Irina Shevtsova, « An improvement of the Berry-Esseen inequality with applications to Poisson and mixed Poisson random sums », Scandinavian Actuarial Journal,‎ , p. 1-25 (arXiv 0912.2795).

Articles connexes


v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique