Loi de Poisson

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Poisson (homonymie).

Page d’aide sur l’homonymie

Ne doit pas être confondu avec Loi de Fisher.

Loi de Poisson
Image illustrative de l’article Loi de Poisson
Fonction de masse
Les fonctions de masse ne sont définies que pour les entiers k.
Image illustrative de l’article Loi de Poisson
Fonction de répartition
Les fonctions de répartition sont discontinues en chaque entier naturel.

Paramètres λ ] 0 , + [ {\displaystyle \lambda \in {}]0,+\infty [} [1]
Support N {\displaystyle \mathbb {N} }
Fonction de masse λ k k ! e λ {\displaystyle {\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }\!}
Fonction de répartition Γ ( k + 1 , λ ) k !  pour  k 0 {\displaystyle {\frac {\Gamma (\lfloor k+1\rfloor ,\lambda )}{\lfloor k\rfloor !}}\!{\text{ pour }}k\geq 0}

(où Γ ( x , y ) {\displaystyle \Gamma (x,y)} est la Fonction gamma incomplète) et où x {\displaystyle \lfloor x\rfloor } est la partie entière par défaut de x

Espérance λ {\displaystyle \lambda \,}
Médiane environ  λ + 1 / 3 0.02 / λ {\displaystyle {\text{environ }}\lfloor \lambda +1/3-0.02/\lambda \rfloor }
Mode λ {\displaystyle \lfloor \lambda \rfloor } si λ {\displaystyle \lambda } est un réel non entier,

λ {\displaystyle \lambda } et λ 1 {\displaystyle \lambda -1} si λ {\displaystyle \lambda } est un nombre entier

Variance λ {\displaystyle \lambda \,}
Asymétrie λ 1 / 2 {\displaystyle \lambda ^{-1/2}\,}
Kurtosis normalisé λ 1 {\displaystyle \lambda ^{-1}\,}
Entropie λ [ 1 ln ( λ ) ] + e λ k = 0 λ k ln ( k ! ) k ! . {\displaystyle \lambda [1\!-\!\ln(\lambda )]\!+\!\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}\ln(k!)}{k!}}.}

Pour λ {\displaystyle \lambda } grand :

1 2 ln ( 2 π e λ ) 1 12 λ 1 24 λ 2 19 360 λ 3 + O ( 1 λ 4 ) {\displaystyle \scriptstyle {\frac {1}{2}}\ln(2\pi \mathrm {e} \lambda )-{\frac {1}{12\lambda }}-{\frac {1}{24\lambda ^{2}}}-{\frac {19}{360\lambda ^{3}}}+O\left({\frac {1}{\lambda ^{4}}}\right)}

Fonction génératrice des moments exp ( λ ( e t 1 ) ) {\displaystyle \exp(\lambda (\mathrm {e} ^{t}-1))}
Fonction caractéristique exp ( λ ( e i t 1 ) ) {\displaystyle \exp(\lambda (\mathrm {e} ^{it}-1))\,}
Fonction génératrice des probabilités exp ( λ ( t 1 ) ) {\displaystyle \exp(\lambda (t-1))}
modifier Consultez la documentation du modèle

En théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent.

La loi de Poisson est également pertinente pour décrire le nombre d'événements dans d'autres types d'intervalles, spatiaux plutôt que temporels, comme des segments, surfaces ou volumes.

Histoire

Le nombre de voitures qui passent sur le Golden Gate dans un laps de temps donné peut être modélisé par une loi de Poisson.

La loi de Poisson a été introduite en 1838 par Denis Poisson (1781–1840), dans son ouvrage Recherches sur la probabilité des jugements en matière criminelle et en matière civile[2]. Le sujet principal de cet ouvrage consiste en certaines variables aléatoires qui dénombrent, entre autres choses, le nombre d'occurrences (parfois appelées « arrivées ») qui prennent place pendant un laps de temps donné.

Définition

Si le nombre moyen d'occurrences dans un intervalle de temps fixé est λ, alors la probabilité qu'il existe exactement k occurrences (k étant un entier naturel, k = 0, 1, 2…) est p ( k ) = P ( X = k ) = λ k k ! e λ {\displaystyle p(k)=\mathbb {P} (X=k)={\frac {\lambda ^{k}}{k!}}\mathrm {e} ^{-\lambda }} où :

  • e est la base de l'exponentielle (e ≈ 2,718...) ;
  • k! est la factorielle de k. Il correspond à la valeur étudiée ;
  • λ est un nombre réel strictement positif[1]. Il correspond à la moyenne théorique de l'échantillon.

On dit alors que X suit la loi de Poisson de paramètre λ, noté X Pois ( λ ) {\displaystyle X\sim \operatorname {Pois} \left(\lambda \right)} .

Par exemple, si un certain type d'événements se produit en moyenne 4 fois par minute, pour étudier le nombre d'événements se produisant dans un laps de temps de 10 minutes, on choisit comme modèle une loi de Poisson de paramètre λ = 10×4 = 40.

Calcul de p(k)

Ce calcul peut se faire de manière déductive en travaillant sur une loi binomiale de paramètres ( T ; λ T ) {\displaystyle \left(T;{\frac {\lambda }{T}}\right)} . Pour T grand, on démontre que la loi binomiale converge vers la loi de Poisson.

Il peut aussi se faire de manière inductive en étudiant sur l'intervalle [0 ; T] les fonctions Fk(t), qui donnent la probabilité que l'événement se produise k fois sur l'intervalle de temps [0 ; t]. En utilisant la récurrence et du calcul différentiel, on parvient à retrouver les formules précédentes[3].

Propriétés

Dans toute cette section X est une variable aléatoire suivant une loi de Poisson de paramètre λ.

Moments et fonctions génératrices

Moments ordinaires

Les quatre premiers moments ordinaires d'une loi de Poisson sont donnés par[4] :

E [ X ] = λ E [ X 2 ] = λ ( 1 + λ ) E [ X 3 ] = λ ( 1 + 3 λ + λ 2 ) E [ X 4 ] = λ ( 1 + 7 λ + 6 λ 2 + λ 3 ) {\displaystyle {\begin{array}{lll}\mathbb {E} [X]&=&\lambda \\\mathbb {E} [X^{2}]&=&\lambda (1+\lambda )\\\mathbb {E} [X^{3}]&=&\lambda (1+3\lambda +\lambda ^{2})\\\mathbb {E} [X^{4}]&=&\lambda (1+7\lambda +6\lambda ^{2}+\lambda ^{3})\end{array}}}

On en déduit la variance et l'écart type :

V ( X ) = λ σ ( X ) = λ {\displaystyle {\begin{array}{lll}V(X)&=&\lambda \\\sigma (X)&=&{\sqrt {\lambda }}\end{array}}}

Plus généralement, le n-ième moment ordinaire d'une loi de Poisson de paramètre λ est E ( X n ) = k = 0 n S ( n , k ) λ k {\displaystyle \mathbb {E} (X^{n})=\sum _{k=0}^{n}S(n,k)\lambda ^{k}} S(n, k) est le nombre de Stirling de seconde espèce de paramètres n et k.

En particulier lorsque λ = 1, le n-ième moment de X correspond au n-ième nombre de Bell. En effet cela est une conséquence de la formule de Dobiński.

La borne suivante majore les moments d'une loi de Poisson[5] : E [ X k ] [ k ln ( k / λ + 1 ) ] k λ k e k 2 2 λ {\displaystyle \mathbb {E} [X^{k}]\leq \left[{\frac {k}{\ln \left(k/\lambda +1\right)}}\right]^{k}\leq \lambda ^{k}\mathrm {e} ^{\frac {k^{2}}{2\lambda }}} On a la relation de récurrence[6] : E [ X n ] = λ E [ X n 1 ] + λ E [ X n 1 ] λ {\displaystyle \mathbb {E} [X^{n}]=\lambda \mathbb {E} [X^{n-1}]+\lambda {\frac {\partial \mathbb {E} [X^{n-1}]}{\partial \lambda }}}

Moments centrés

Les quatre premiers moments centrés d'une loi de Poisson sont donnés par[4],[6] :

E [ ( X λ ) 2 ] = λ E [ ( X λ ) 3 ] = λ E [ ( X λ ) 4 ] = λ ( 1 + 3 λ ) E [ ( X λ ) 5 ] = λ ( 1 + 10 λ ) {\displaystyle {\begin{array}{lll}\mathbb {E} [(X-\lambda )^{2}]&=&\lambda \\\mathbb {E} [(X-\lambda )^{3}]&=&\lambda \\\mathbb {E} [(X-\lambda )^{4}]&=&\lambda (1+3\lambda )\\\mathbb {E} [(X-\lambda )^{5}]&=&\lambda (1+10\lambda )\end{array}}}

On en déduit l'asymétrie et le kurtosis normalisé :

γ 1 ( X ) = 1 / λ γ 2 ( X ) = 1 / λ {\displaystyle {\begin{array}{lll}\gamma _{1}(X)&=&1/{\sqrt {\lambda }}\\\gamma _{2}(X)&=&1/\lambda \end{array}}}

On a la relation de récurrence[6] : E [ ( X λ ) n + 1 ] = n λ E [ ( X λ ) n 1 ] + λ E [ ( X λ ) n ] λ {\displaystyle \mathbb {E} [(X-\lambda )^{n+1}]=n\lambda \mathbb {E} [(X-\lambda )^{n-1}]+\lambda {\frac {\partial \mathbb {E} [(X-\lambda )^{n}]}{\partial \lambda }}}

Moments factoriels

Le r-ième moment factoriel d'une loi de Poisson est

E ( ( X ) r ) = λ r {\displaystyle \mathbb {E} ((X)_{r})=\lambda ^{r}}

( x ) r = x ( x 1 ) ( x r + 1 ) {\displaystyle (x)_{r}=x(x-1)\dots (x-r+1)} désigne la factorielle décroissante.

Fonction génératrice des probabilités

La fonction génératrice des probabilités d'une loi de Poisson est

G X ( t ) E ( t X ) = e λ ( t 1 ) . {\displaystyle G_{X}(t)\equiv \mathbb {E} (t^{X})=\mathrm {e} ^{\lambda (t-1)}.}

Fonction génératrice des moments

La fonction génératrice des moments d'une loi de Poisson est

M X ( t ) E ( e t X ) = exp ( λ ( e t 1 ) ) . {\displaystyle M_{X}(t)\equiv \mathbb {E} (\mathrm {e} ^{tX})=\exp \left(\lambda (\mathrm {e} ^{t}-1)\right).}

Démonstration

Soit X une variable aléatoire suivant une loi de poisson de paramètre λ. On rappelle que par définition P ( X = k ) = e λ λ k k ! {\displaystyle \mathbb {P} (X=k)=\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}} .

Espérance

E ( X ) = k = 1 k P ( X = k ) = k = 1 k e λ λ k k ! = e λ k = 1 λ k ( k 1 ) ! = λ e λ k = 1 λ k 1 ( k 1 ) ! ( on reconnaît le développement en série entière de  e λ ) = λ e λ e λ = λ . {\displaystyle {\begin{aligned}\mathbb {E} (X)&=\sum _{k=1}^{\infty }k\,\mathbb {P} (X=k)\\&=\sum _{k=1}^{\infty }k\,\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\,\sum _{k=1}^{\infty }{\frac {\lambda ^{k}}{(k-1)!}}\\&=\lambda \,\mathrm {e} ^{-\lambda }\,\sum _{k=1}^{\infty }{\frac {\lambda ^{k-1}}{(k-1)!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{\lambda })\\&=\lambda \,\mathrm {e} ^{-\lambda }\,\mathrm {e} ^{\lambda }\\&=\lambda .\end{aligned}}}

Variance

V ( X ) = E ( X 2 ) ( E ( X ) ) 2 = k = 1 k 2 P ( X = k ) λ 2 = k = 1 k 2 e λ λ k k ! λ 2 = λ e λ k = 1 k λ k 1 ( k 1 ) ! λ 2 = λ e λ k = 1 d d λ λ k ( k 1 ) ! λ 2 ( la série entière ayant un rayon de convergence infini, = λ e λ d d λ k = 1 λ k ( k 1 ) ! λ 2 on peut inverser la sommation et la dérivation ) = λ e λ d d λ [ λ k = 1 λ k 1 ( k 1 ) ! ] λ 2 ( on reconnaît le développement en série entière de  e λ ) = λ e λ d d λ [ λ e λ ] λ 2 = λ e λ ( λ + 1 ) e λ λ 2 = λ ( λ + 1 ) λ 2 = λ . {\displaystyle {\begin{aligned}V(X)&=\mathbb {E} (X^{2})-(\mathbb {E} (X))^{2}&\\&=\sum _{k=1}^{\infty }k^{2}\,\mathbb {P} (X=k)-\lambda ^{2}&\\&=\sum _{k=1}^{\infty }k^{2}\,\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }\sum _{k=1}^{\infty }\,{\frac {k\lambda ^{k-1}}{(k-1)!}}-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }\sum _{k=1}^{\infty }\,{\frac {d}{d\lambda }}{\frac {\lambda ^{k}}{(k-1)!}}-\lambda ^{2}&\qquad ({\text{la série entière ayant un rayon de convergence infini,}}\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}\sum _{k=1}^{\infty }\,{\frac {\lambda ^{k}}{(k-1)!}}-\lambda ^{2}&\qquad {\text{on peut inverser la sommation et la dérivation}})\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}\left[\lambda \sum _{k=1}^{\infty }\,{\frac {\lambda ^{k-1}}{(k-1)!}}\right]-\lambda ^{2}&\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{\lambda })\\&=\lambda \,\mathrm {e} ^{-\lambda }{\frac {d}{d\lambda }}[\lambda \,\mathrm {e} ^{\lambda }]-\lambda ^{2}&\\&=\lambda \,\mathrm {e} ^{-\lambda }(\lambda +1)\,\mathrm {e} ^{\lambda }-\lambda ^{2}&\\&=\lambda \,(\lambda +1)-\lambda ^{2}&\\&=\lambda .&\end{aligned}}}

Fonction génératrice

On rappelle que la fonction génératrice de X est définie par G X ( t ) = E ( t X ) {\displaystyle G_{X}(t)=\mathbb {E} (t^{X})} . Ainsi on obtient :

E ( t X ) = k = 0 t k P ( X = k ) = k = 0 t k e λ λ k k ! = e λ k = 0 t k λ k k ! = e λ k = 0 ( t λ ) k k ! ( on reconnaît le développement en série entière de  e t λ ) = e λ e t λ = e λ ( t 1 ) . {\displaystyle {\begin{aligned}\mathbb {E} (t^{X})&=\sum _{k=0}^{\infty }t^{k}\mathbb {P} (X=k)\\&=\sum _{k=0}^{\infty }t^{k}\mathrm {e} ^{-\lambda }{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }t^{k}{\frac {\lambda ^{k}}{k!}}\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {(t\lambda )^{k}}{k!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{t\lambda })\\&=\mathrm {e} ^{-\lambda }\mathrm {e} ^{t\lambda }\\&=\mathrm {e} ^{\lambda (t-1)}.\end{aligned}}}

Fonction génératrice des moments

On rappelle que la fonction génératrice des moments de X est définie par M X ( t ) = E ( e t X ) {\displaystyle M_{X}(t)=\mathbb {E} (\mathrm {e} ^{tX})} . Ainsi on obtient :

M X ( t ) = k = 0 e t k P ( X = k ) = k = 0 e t k λ k k ! e λ = e λ k = 0 ( λ e t ) k k ! ( on reconnaît le développement en série entière de  e x  évalué en  x = λ e t ) = e λ e λ e t = e λ ( e t 1 ) . {\displaystyle {\begin{aligned}M_{X}(t)&=\sum _{k=0}^{\infty }\mathrm {e} ^{tk}\mathbb {P} (X=k)\\&=\sum _{k=0}^{\infty }\mathrm {e} ^{tk}{\frac {\lambda ^{k}}{k!}}\,\mathrm {e} ^{-\lambda }\\&=\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {(\lambda \,\mathrm {e} ^{t})^{k}}{k!}}\qquad ({\text{on reconnaît le développement en série entière de }}\mathrm {e} ^{x}{\text{ évalué en }}x=\lambda \mathrm {e} ^{t})\\&=\mathrm {e} ^{-\lambda }\mathrm {e} ^{\lambda \,\mathrm {e} ^{t}}\\&=\mathrm {e} ^{\lambda (\mathrm {e} ^{t}-1)}.\end{aligned}}}

Moments factoriels

E ( ( X ) r ) = e λ k = r k ! ( k r ) ! λ k k ! = λ r e λ k = r λ k r ( k r ) ! = λ r e λ k = 0 λ k k ! = λ r . {\displaystyle {\begin{aligned}\mathbb {E} ((X)_{r})&=\mathrm {e} ^{-\lambda }\sum _{k=r}^{\infty }{\frac {k!}{(k-r)!}}{\frac {\lambda ^{k}}{k!}}\\&=\lambda ^{r}\mathrm {e} ^{-\lambda }\sum _{k=r}^{\infty }{\frac {\lambda ^{k-r}}{(k-r)!}}\\&=\lambda ^{r}\mathrm {e} ^{-\lambda }\sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}\\&=\lambda ^{r}.\end{aligned}}}

Moments

Les nombres de Stirling de seconde espèce vérifient la relation

X n = k = 0 n S ( n , k ) ( X ) k {\displaystyle X^{n}=\sum _{k=0}^{n}S(n,k)(X)_{k}} .

Ainsi, en utilisant la formule des moments factoriels d'une loi de Poisson ainsi que la linéarité de l'espérance on conclut que

E ( X n ) = k = 0 n S ( n , k ) λ k {\displaystyle \mathbb {E} (X^{n})=\sum _{k=0}^{n}S(n,k)\lambda ^{k}} .

Diagramme en bâton

Comme toute loi de probabilité discrète, une loi de Poisson peut être représentée par un diagramme en bâtons. Ci-dessous sont représentés les diagrammes en bâtons des lois de Poisson de paramètres 1, 2 et 5.

diagramme en bâtons d'une loi de Poisson de paramètre 1 diagramme en bâtons d'une loi de Poisson de paramètre 2 diagramme en bâtons d'une loi de Poisson de paramètre 5

Lorsque le paramètre λ de la loi de Poisson devient grand, (pratiquement lorsqu'il est supérieur à 5), son diagramme en bâton est correctement approché par l'histogramme d'une loi normale d'espérance et de variance égales à λ (l'intervalle de classe étant égal à l'unité). Cette convergence était mise à profit, avant que les moyens informatiques ne se généralisent, pour utiliser la loi normale en lieu et place de la loi de Poisson dans certains tests.

Stabilité de la loi de Poisson par la somme

Si les variables {Xi}i=1,...,n sont indépendantes et suivent une loi de Poisson de paramètres respectifs λi, alors leur somme suit une loi de Poisson de paramètre la somme des λi: Y = ( i = 1 n X i ) Pois ( i = 1 n λ i ) {\displaystyle Y=\left(\sum _{i=1}^{n}X_{i}\right)\sim \operatorname {Pois} \left(\sum _{i=1}^{n}\lambda _{i}\right)}

Démonstration

On montre le cas n = 2, les cas supérieurs se déduisent par récurrence.

On rappelle que P ( X 1 = n ) = λ 1 n n ! e λ 1  et  P ( X 2 = n ) = λ 2 n n ! e λ 2 . {\displaystyle \mathbb {P} (X_{1}=n)={\frac {{\lambda _{1}}^{n}}{n!}}\mathrm {e} ^{-\lambda _{1}}{\text{ et }}\mathbb {P} (X_{2}=n)={\frac {{\lambda _{2}}^{n}}{n!}}\mathrm {e} ^{-{\lambda _{2}}}.} On a alors P ( X + Y = n ) = k = 0 n P ( { X 1 = k } { X 2 = n k } ) = k = 0 n P ( X 1 = k ) P ( X 2 = n k ) = k = 0 n λ 1 k k ! e λ 1 λ 2 n k ( n k ) ! e λ 2 = e λ 1 e λ 2 n ! k = 0 n n ! k ! ( n k ) ! λ 1 k λ 2 n k = e ( λ 1 + λ 2 ) n ! ( λ 1 + λ 2 ) n {\displaystyle {\begin{aligned}\mathbb {P} (X+Y=n)&=\sum _{k=0}^{n}\mathbb {P} (\{X_{1}=k\}\cap \{X_{2}=n-k\})=\sum _{k=0}^{n}\mathbb {P} (X_{1}=k)\mathbb {P} (X_{2}=n-k)\\&=\sum _{k=0}^{n}{\frac {\lambda _{1}^{k}}{k!}}\mathrm {e} ^{-\lambda _{1}}\cdot {\frac {\lambda _{2}^{n-k}}{(n-k)!}}\mathrm {e} ^{-\lambda _{2}}\\&={\frac {\mathrm {e} ^{-\lambda _{1}}\mathrm {e} ^{-\lambda _{2}}}{n!}}\sum _{k=0}^{n}{\frac {n!}{k!(n-k)!}}\lambda _{1}^{k}\lambda _{2}^{n-k}={\frac {\mathrm {e} ^{-(\lambda _{1}+\lambda _{2})}}{n!}}(\lambda _{1}+\lambda _{2})^{n}\end{aligned}}}

L'indépendance a été utilisée à la 2e égalité. La dernière égalité est obtenue via la formule du binôme de Newton.

Bornes de queue

Un argument de type borne de Chernoff permet de déduire les bornes de queue suivantes[7]

P ( X x ) e λ ( e λ ) x x x {\displaystyle \mathbb {P} (X\geq x)\leq {\frac {\mathrm {e} ^{-\lambda }(\mathrm {e} \lambda )^{x}}{x^{x}}}} pour tout x > λ et
P ( X x ) e λ ( e λ ) x x x {\displaystyle \mathbb {P} (X\leq x)\leq {\frac {\mathrm {e} ^{-\lambda }(\mathrm {e} \lambda )^{x}}{x^{x}}}} pour tout x < λ.

Ces bornes peuvent se réécrire de la manière suivante[8]

P ( X x + λ ) e x 2 2 λ h ( x λ ) {\displaystyle \mathbb {P} (X\geq x+\lambda )\leq \mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}} pour tout x > 0 et
P ( X x + λ ) e x 2 2 λ h ( x λ ) {\displaystyle \mathbb {P} (X\leq -x+\lambda )\leq \mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left(-{\frac {x}{\lambda }}\right)}} pour tout λ > x > 0

h ( u ) := 2 ( 1 + u ) ln ( 1 + u ) u u 2 {\displaystyle h(u):=2{\frac {(1+u)\ln(1+u)-u}{u^{2}}}} pour tout u 1 {\displaystyle u\geq -1} . Ces dernières bornes impliquent en particulier la borne suivante[8] (qui est plus faible mais plus agréable à manipuler)

P ( | X λ | x ) 2 e x 2 2 ( λ + x ) {\displaystyle \mathbb {P} (|X-\lambda |\geq x)\leq 2\mathrm {e} ^{-{\frac {x^{2}}{2(\lambda +x)}}}} .

La borne supérieure donnée par Chernoff peut être améliorée d'un facteur 2 au moins[9]

P ( X x + λ ) e x 2 2 λ h ( x λ ) max { 2 , 2 π x 2 λ h ( x λ ) } {\displaystyle \mathbb {P} (X\geq x+\lambda )\leq {\frac {\mathrm {e} ^{-{\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)}}{\max \left\{2,{\sqrt {{\frac {2\pi x^{2}}{\lambda }}h\left({\frac {x}{\lambda }}\right)}}\right\}}}} pour tout x > 0.

Il est à noter que la fonction h est liée à la divergence de Kullback-Leibler entre une loi de Poisson de paramètre x + λ et une loi de Poisson de paramètre λ. En effet on a la relation

D K L ( x + λ | | λ ) = ( x + λ ) ln ( x λ + 1 ) x = x 2 2 λ h ( x λ ) {\displaystyle D_{KL}(x+\lambda ||\lambda )=(x+\lambda )\ln \left({\frac {x}{\lambda }}+1\right)-x={\frac {x^{2}}{2\lambda }}h\left({\frac {x}{\lambda }}\right)} .

Simulation

Un algorithme simple pour simuler la loi de Poisson consiste à utiliser le résultat suivant :

Théorème — Soit (Ei)i ≥ 1 une suite de variables aléatoires indépendantes et de même loi exponentielle de paramètre λ. On pose S1 = E1 et pour n ≥ 2, Sn = E1 + ... + En. On a alors :

n 1 ,   P ( S n 1 < S n + 1 ) = λ n n ! e λ {\displaystyle \forall n\geqslant 1,\ \mathbb {P} (S_{n}\leqslant 1<S_{n+1})={\frac {\lambda ^{n}}{n!}}\mathrm {e} ^{-\lambda }}

La méthode de la transformée inverse permet de donner une façon simple de générer un tirage aléatoire suivant une loi exponentielle :

Si U suit une loi uniforme sur [0 ; 1], alors E = –1/λln(U) suit une loi exponentielle de paramètre λ.

En générant les E i {\displaystyle E_{i}} par l'intermédiaire de variables aléatoires U i U [ 0 , 1 ] {\displaystyle U_{i}\sim {\mathcal {U}}[0,1]} , On a ainsi S n = 1 λ ln ( i n U i ) {\displaystyle S_{n}=-{\frac {1}{\lambda }}\ln(\prod _{i}^{n}U_{i})} et, en notant P n := i = 1 n U i , n 1 {\displaystyle P_{n}:=\prod _{i=1}^{n}U_{i},n\geq 1}  : S n 1 < S n + 1 P n e λ > P n + 1 n N {\displaystyle S_{n}\leq 1<S_{n+1}\Leftrightarrow P_{n}\geq \mathrm {e} ^{-\lambda }>P_{n+1}\;\forall n\in \mathbb {N} ^{*}}

L'algorithme peut ainsi se simplifier en :

  • k ← 0, p ← 1
  • tant que p > e–λ
    • on tire u selon un tirage aléatoire uniforme sur [0 ; 1]
    • pp×u
    • kk+1
  • on renvoie k – 1

Estimation du paramètre λ

L'estimateur par maximum de vraisemblance du paramètre λ d'un échantillon issu d'une loi de Poisson est la moyenne empirique. C'est un estimateur convergent, sans biais, efficace, complet (en), exhaustif.

Lien avec d'autres lois de probabilités

  • Si X et Y sont deux variables aléatoires indépendantes qui suivent des lois de Poisson de paramètres respectifs λ et μ, alors X – Y est une variable aléatoire qui suit une loi de Skellam de paramètres (λ,μ).
  • Si X et Y sont deux variables aléatoires indépendantes qui suivent des lois de Poisson de paramètres λ et μ, alors la loi conditionnelle de X sachant X + Y est une loi binomiale.
  • Pour de grandes valeurs de λ, on peut approcher la loi de Poisson par la loi normale de moyenne λ et de variance λ.

Lien avec la loi de Bernoulli

Le décompte des événements rares se fait souvent au travers d'une somme de variables de Bernoulli, la rareté des événements se traduisant par le fait que les paramètres de ces variables de Bernoulli sont petits (ainsi, la probabilité que chaque événement survienne est faible). Le lien entre la loi de Poisson et les événements rares peut alors s'énoncer ainsi :

Paradigme de Poisson —  La somme Sn d'un grand nombre de variables de Bernoulli indépendantes de petit paramètre suit approximativement la loi de Poisson de paramètre E [ S n ] .   {\displaystyle \mathbb {E} [S_{n}].\ }

L'inégalité de Le Cam précise le paradigme de Poisson : soit X 1 , n , X 2 , n , , X a n , n   {\displaystyle X_{1,n},X_{2,n},\dots ,X_{a_{n},n}\ } un tableau de variables aléatoires de Bernoulli indépendantes, avec paramètres respectifs pk,n. On note

S n = k = 1 a n X k , n et λ n   =   E [ S n ] = k = 1 a n p k , n .   {\displaystyle S_{n}=\sum _{k=1}^{a_{n}}\,X_{k,n}\quad {\text{et}}\quad \lambda _{n}\ =\ \mathbb {E} [S_{n}]=\sum _{k=1}^{a_{n}}\,p_{k,n}.\ }

Inégalité de Le Cam[10] — Pour tout ensemble A d'entiers naturels,
| P ( S n A ) k A λ n k e λ n k ! |     k = 1 a n p k , n 2 . {\displaystyle \left|\mathbb {P} \left(S_{n}\in A\right)-\sum _{k\in A}\,{\frac {\lambda _{n}^{k}\,\mathrm {e} ^{-\lambda _{n}}}{k!}}\right|\ \leq \ \sum _{k=1}^{a_{n}}\,p_{k,n}^{2}.}

En particulier, si les deux conditions suivantes sont réunies :

  • lim n λ n = λ > 0 ,   {\displaystyle \lim _{n}\lambda _{n}\,=\,\lambda >0,\ }
  • lim n k = 1 a n p k , n 2 = 0 ,   {\displaystyle \lim _{n}\sum _{k=1}^{a_{n}}\,p_{k,n}^{2}\,=\,0,\ }

alors Sn converge en loi vers la loi de Poisson de paramètre λ.

Dans l'énoncé du paradigme de Poisson, on fait deux hypothèses (vagues) sur les termes d'une somme Sn de variables de Bernoulli :

  • les paramètres des variables de Bernoulli sont petits ; or les deux conditions ci-dessus entraînent que

lim n ( max 1 k a n p k , n ) = 0 ,   {\displaystyle \lim _{n}\,\left(\max _{1\leq k\leq a_{n}}\,p_{k,n}\right)\,=\,0,\ } ce qui reformule l'hypothèse « les paramètres des variables de Bernoulli sont petits » de manière plus précise ;

  • il y a un grand nombre de termes ; or les deux conditions ci-dessus entrainent que le nombre de termes tend vers l'infini :

lim n a n = + .   {\displaystyle \lim _{n}a_{n}\,=\,+\infty .\ }

Remarques :

Domaines d'application

Le domaine d'application de la loi de Poisson a été longtemps limité à celui des événements rares comme les suicides d'enfants, les arrivées de bateaux dans un port ou les accidents dus aux coups de pied de cheval dans les armées (étude de Ladislaus Bortkiewicz[12]).

Mais, depuis la fin du XXe siècle, son champ d'application s'est considérablement élargi. On l'utilise beaucoup dans les télécommunications (pour compter le nombre de communications dans un intervalle de temps donné), le contrôle de qualité statistique (nombre de défauts en SPC), la description de certains phénomènes liés à la désintégration radioactive (la désintégration des noyaux radioactifs suivant, par ailleurs, une loi exponentielle de paramètre noté aussi lambda), la biologie (mutations dans l'expérience de Luria et Delbrück, nombre de potentiels d'actions émis par un neurone en neurosciences), la météorologie, la finance pour modéliser la probabilité de défaut d'un crédit, le Yield Management (American Airlines, Lufthansa et SAS pour estimer la demande de passagers), etc.

La loi de Poisson est également utilisable dans le cadre sportif. Elle peut être utilisée afin d'effectuer des prédictions statistiques sur le nombre de buts inscrits lors d'un match. Les probabilités issues de ce modèle permettent aux bookmakers de définir leurs cotes.

En littérature

Dans le roman de Thomas Pynchon, L'Arc-en-ciel de la gravité, un des personnages, le statisticien Roger Mexico, utilise la loi de Poisson pour cartographier les zones d'impact des fusées allemandes V2 sur la ville de Londres durant la Seconde Guerre mondiale.

Notes et références

  1. a et b Avec les conventions habituelles 0! = 1 et 00 = 1, la définition de la loi de Poisson s'étend à λ = 0 : on trouve alors p(0) = 1 et, dès que k > 0, p(k) = 0. Ainsi une variable aléatoire nulle presque sûrement peut être vue comme suivant la loi de Poisson de paramètre 0. Cette convention est cohérente avec les propriétés essentielles de la loi de Poisson de paramètre strictement positif. Elle est commode, voire indispensable, par exemple lors de l'étude des processus ponctuels de Poisson.
  2. Siméon-Denis Poisson, Recherches sur la probabilité des jugements en matière criminelle et en matière civile ; précédées des Règles générales du calcul des probabilités sur Gallica, 1837, passage 81, p. 205.
  3. Voir par exemple, Michel Henry, Autour de la modélisation en probabilités, Presses universitaires de Franche-Comté, (présentation en ligne), p. 229-231 ou encore ces notes de cours.
  4. a et b (en) Eric W Weisstein, « Poisson Distribution », sur mathworld.wolfram.com
  5. (en) D Ahle Thomas, « Sharp and Simple Bounds for the raw Moments of the Binomial and Poisson Distributions », arXiv,‎ (arXiv 2103.17027, lire en ligne)
  6. a b et c (en) Norman L Johnson, Adrienne W Kemp et Samuel Kotz, Univariate Discrete Distributions, Wiley, , 3e éd. (ISBN 978-0-471-27246-5, lire en ligne), p. 162
  7. (en) Michael Mitzenmacher et Eli Upfal, Probability and Computing: Randomized Algorithms and Probabilistic Analysis, Cambridge UK, Cambridge University Press, (ISBN 978-0-521-83540-4, lire en ligne), p. 97
  8. a et b (en) « A short note on Poisson tail bounds »
  9. (en) Michael Short, « Improved Inequalities for the Poisson and Binomial Distribution and Upper Tail Quantile Functions », International Scholarly Research Notices, vol. 2013,‎ (DOI https://doi.org/10.1155/2013/412958, lire en ligne)
  10. (en) L. Le Cam, « An Approximation Theorem for the Poisson Binomial Distribution », Pacific Journal of Mathematics, vol. 10, no 4,‎ , p. 1181–1197 (lire en ligne, consulté le ).
  11. (en) A. D. Barbour, L. Holst et S. Janson, Poisson approximation, Oxford, The Clarendon Press Oxford University Press, , 277 p. (ISBN 0-19-852235-5).
  12. Ladislaus Bortkiewicz, Das Gesetz der kleinen Zahlen, (lire en ligne), p. 23.

Voir aussi

Articles connexes

Lien externe

  • Arthur Charpentier, « La loi des petits nombres », sur Freakonometrics,
v · m
Lois discrètes
à support fini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
Lois absolument continues
à support compact
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
à support semi-infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Lois multidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique