Loi Poisson binomiale

loi Poisson binomiale
Paramètres p [ 0 , 1 ] n {\displaystyle \mathbf {p} \in [0,1]^{n}} — probabilités de succès pour chacun des n essais
Support k { 0 , , n } {\displaystyle k\in \{0,\dots ,n\}}
Fonction de masse A F k i A p i j A c ( 1 p j ) {\displaystyle \sum \limits _{A\in F_{k}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}(1-p_{j})}
Fonction de répartition l = 0 k A F l i A p i j A c ( 1 p j ) {\displaystyle \sum \limits _{l=0}^{k}\sum \limits _{A\in F_{l}}\prod \limits _{i\in A}p_{i}\prod \limits _{j\in A^{c}}{(1-p_{j})}}
Espérance i = 1 n p i {\displaystyle \sum \limits _{i=1}^{n}p_{i}}
Variance σ 2 = i = 1 n ( 1 p i ) p i {\displaystyle \sigma ^{2}=\sum \limits _{i=1}^{n}(1-{p_{i}}){p_{i}}}
Asymétrie 1 σ 3 i = 1 n ( 1 2 p i ) ( 1 p i ) p i {\displaystyle {\frac {1}{\sigma ^{3}}}\sum \limits _{i=1}^{n}{\left(1-2{p_{i}}\right)\left(1-{{p}_{i}}\right){{p}_{i}}}}
Kurtosis normalisé 1 σ 4 i = 1 n ( 1 6 ( 1 p i ) p i ) ( 1 p i ) p i {\displaystyle {\frac {1}{\sigma ^{4}}}\sum \limits _{i=1}^{n}{\left(1-6(1-p_{i}){p_{i}}\right)\left(1-p_{i}\right)p_{i}}}
Fonction génératrice des moments i = 1 n ( 1 p i + p i e t ) {\displaystyle \prod \limits _{i=1}^{n}(1-{p_{i}}+{p_{i}}{e^{t}})}
modifier Consultez la documentation du modèle

En théorie des probabilités et en statistique, la loi Poisson binomiale est une loi de probabilité discrète de la somme d'épreuves de Bernoulli indépendantes.

En d'autres termes, c'est la loi de probabilité du nombre de succès (nombre de pile) d'une suite de n {\displaystyle n} lancers de pile ou face dont les probabilités de succès (d'obtenir pile) sont p 1 , p 2 , , p n {\displaystyle p_{1},p_{2},\dots ,p_{n}} . La loi binomiale ordinaire est un cas spécial de la loi Poisson binomiale lorsque toutes les probabilités sont les mêmes : p 1 = p 2 = = p n {\displaystyle p_{1}=p_{2}=\dots =p_{n}} .

Espérance et variance

Puisque la loi Poisson binomiale est une somme de n variables aléatoires indépendantes de loi de Bernoulli, son espérance et sa variance sont simplement les sommes des espérances et variances des lois de Bernoulli :

μ = i = 1 n p i {\displaystyle \mu =\sum \limits _{i=1}^{n}p_{i}}
σ 2 = i = 1 n ( 1 p i ) p i . {\displaystyle \sigma ^{2}=\sum \limits _{i=1}^{n}(1-p_{i})p_{i}.}

Fonction de masse

La probabilité d'obtenir k {\displaystyle k} succès sur un total de n essais peut être écrit comme la somme[1] :

P ( K = k ) = A F k i A p i j A c ( 1 p j ) {\displaystyle \mathbb {P} (K=k)=\sum \limits _{A\in F_{k}}{\prod \limits _{i\in A}{{p}_{i}}\prod \limits _{j\in {{A}^{c}}}{(1-{{p}_{j}})}}}

F k {\displaystyle F_{k}} est l'ensemble de tous les sous-ensembles de { 1 , 2 , , n } {\displaystyle \{1,2,\dots ,n\}} contenant k {\displaystyle k} éléments. Par exemple si n=3, alors F 2 = { { 1 , 2 } , { 1 , 3 } , { 2 , 3 } } {\displaystyle F_{2}=\left\{\{1,2\},\{1,3\},\{2,3\}\right\}} . A c {\displaystyle A^{c}} est le complémentaire de A {\displaystyle A} .

L'ensemble F k {\displaystyle F_{k}} contient ( n k ) = n ! ( n k ) ! k ! {\textstyle {n \choose k}={\frac {n!}{(n-k)!k!}}} éléments, ainsi les calculs deviennent très grands en pratique, par exemple pour n=30, F 15 {\displaystyle F_{15}} contient un nombre de l'ordre de 1020 éléments. Il existe cependant des méthodes efficaces pour calculer P ( K = k ) {\displaystyle \mathbb {P} (K=k)} .

On peut utiliser une formule itérative[2],[3] :

P ( K = k ) = { i = 1 n ( 1 p i ) s i   k = 0 1 k i = 1 k ( 1 ) i 1 P ( K = k i ) T ( i ) s i   k > 0 {\displaystyle \mathbb {P} (K=k)=\left\{{\begin{aligned}&\prod _{i=1}^{n}(1-p_{i})&\mathrm {si} \ k=0\\&{\frac {1}{k}}\sum _{i=1}^{k}(-1)^{i-1}\mathbb {P} (K=k-i)T(i)&\mathrm {si} \ k>0\end{aligned}}\right.}

T ( i ) = j = 1 n ( p j 1 p j ) i {\displaystyle T(i)=\sum _{j=1}^{n}\left({\frac {p_{j}}{1-p_{j}}}\right)^{i}} .

Une autre possibilité est d'utiliser la transformée de Fourier discrète[4] :

P ( K = k ) = 1 n + 1 l = 0 n ω l k m = 1 n ( 1 + ( ω l 1 ) p m ) {\displaystyle \mathbb {P} (K=k)={\frac {1}{n+1}}\sum \limits _{l=0}^{n}{{\omega ^{lk}}\prod \limits _{m=1}^{n}{\left(1+({\omega ^{l}}-1){p_{m}}\right)}}}

ω = exp ( 2 i π n + 1 ) {\displaystyle \omega =\exp \left(-{\frac {2{\rm {i}}\pi }{n+1}}\right)} avec i l'unité imaginaire.

D'autres méthodes sont décrites dans les ouvrages de Chen[5].

Références

  1. (en) Y. H. Wang, « On the number of successes in independent trials », Statistica Sinica, vol. 3, no 2,‎ , p. 295–312 (lire en ligne)
  2. (en) B. K. Shah, « On the distribution of the sum of independent integer valued random variables », American Statistician, vol. 27, no 3,‎ , p. 123-124 (lire en ligne)
  3. (en) X. H. Chen, « Weighted finite population sampling to maximize entropy », Biometrika, vol. 81, no 3,‎ , p. 457 (lire en ligne)
  4. (en) M. Fernandez, « Closed-Form Expression for the Poisson-Binomial Probability Density Function », IEEE Transactions on Aerospace Electronic Systems, vol. 46,‎ , p. 803–817 (DOI 10.1109/TAES.2010.5461658)
  5. (en) S. X. Chen, « Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions », Statistica Sinica, vol. 7,‎ , p. 875–892 (lire en ligne)
v · m
Lois discrètes
à support fini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
Lois absolument continues
à support compact
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
à support semi-infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Lois multidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
  • icône décorative Portail des probabilités et de la statistique