Loi bêta Densité de probabilité Fonction de répartition Paramètres α > 0 {\displaystyle \alpha >0} forme (réel ) β > 0 {\displaystyle \beta >0} forme (réel) Support x ∈ ] 0 ; 1 [ {\displaystyle x\in ]0;1[\!} Densité de probabilité x α − 1 ( 1 − x ) β − 1 B ( α , β ) {\displaystyle {\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\mathrm {B} (\alpha ,\beta )}}\!} Fonction de répartition I x ( α , β ) {\displaystyle I_{x}(\alpha ,\beta )\!} Espérance α α + β {\displaystyle {\frac {\alpha }{\alpha +\beta }}\!} Mode α − 1 α + β − 2 {\displaystyle {\frac {\alpha -1}{\alpha +\beta -2}}\!} pour α > 1 , β > 1 {\displaystyle \alpha >1,\beta >1} Variance α β ( α + β ) 2 ( α + β + 1 ) {\displaystyle {\frac {\alpha \beta }{(\alpha +\beta )^{2}(\alpha +\beta +1)}}\!} Asymétrie 2 ( β − α ) α + β + 1 ( α + β + 2 ) α β {\displaystyle 2\,{\frac {(\beta -\alpha ){\sqrt {\alpha +\beta +1}}}{(\alpha +\beta +2){\sqrt {\alpha \beta }}}}} Kurtosis normalisé 6 ( β − α ) 2 ( α + β + 1 ) − α β ( α + β + 2 ) α β ( α + β + 2 ) ( α + β + 3 ) {\displaystyle 6\,{\tfrac {(\beta -\alpha )^{2}(\alpha +\beta +1)-\alpha \beta (\alpha +\beta +2)}{\alpha \beta (\alpha +\beta +2)(\alpha +\beta +3)}}\!} Fonction génératrice des moments 1 F 1 ( α ; α + β ; t ) {\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;t)\!} = ∑ k = 0 ∞ ( B ( α + k , β ) B ( α , β ) ) t k k ! {\displaystyle \sum _{k=0}^{\infty }\left({\frac {\mathrm {B} (\alpha +k,\beta )}{\mathrm {B} (\alpha ,\beta )}}\right){\frac {t^{k}}{k!}}} Fonction caractéristique 1 F 1 ( α ; α + β ; i t ) {\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;i\,t)\!} modifier
Dans la théorie des probabilités et en statistiques, la loi bêta est une famille de lois de probabilités continues, définies sur ]0, 1[ , paramétrée par deux paramètres de forme , typiquement notés α (alpha) et β (bêta). C'est un cas spécial de la loi de Dirichlet, avec seulement deux paramètres.
Admettant une grande variété de formes, elle permet de modéliser de nombreuses distributions à support fini. Elle est par exemple utilisée dans la méthode PERT.
Caractérisation Fonction de densité Fixons les deux paramètres (α , β ) dans l'intervalle ]0, +∞[. La densité de probabilité de la loi bêta vaut 0 partout sauf sur ]0, 1[. Pour tout x ∈ ] 0 , 1 [ {\displaystyle x\in ]0,1[} , la fonction de densité vaut :
f ( x ; α , β ) = c o n s t a n t e ⋅ x α − 1 ( 1 − x ) β − 1 {\displaystyle {\begin{aligned}f(x;\alpha ,\beta )&=\mathrm {constante} \cdot x^{\alpha -1}(1-x)^{\beta -1}\end{aligned}}} La constante multiplicative permet à la densité de s'intégrer à l'unité. On note donc que α – 1 apparaît comme puissance de x {\displaystyle x} et β – 1 apparaît comme puissance de ( 1 − x ) {\displaystyle (1-x)} .
Plus précisément, la constante vaut 1 ∫ 0 1 u α − 1 ( 1 − u ) β − 1 d u = 1 B ( α , β ) {\displaystyle {\frac {1}{\int _{0}^{1}u^{\alpha -1}(1-u)^{\beta -1}\,\mathrm {d} u}}={\frac {1}{\mathrm {B} (\alpha ,\beta )}}} où Β est la fonction bêta . On rappelle que B ( α , β ) = Γ ( α ) Γ ( β ) Γ ( α + β ) {\displaystyle \mathrm {B} (\alpha ,\beta )={\frac {\Gamma (\alpha )\,\Gamma (\beta )}{\Gamma (\alpha +\beta )}}} où Γ est la fonction gamma. Pour résumer on a :
f ( x ; α , β ) = x α − 1 ( 1 − x ) β − 1 ∫ 0 1 u α − 1 ( 1 − u ) β − 1 d u = Γ ( α + β ) Γ ( α ) Γ ( β ) x α − 1 ( 1 − x ) β − 1 = 1 B ( α , β ) x α − 1 ( 1 − x ) β − 1 {\displaystyle {\begin{aligned}f(x;\alpha ,\beta )&={\frac {x^{\alpha -1}(1-x)^{\beta -1}}{\displaystyle \int _{0}^{1}u^{\alpha -1}(1-u)^{\beta -1}\,du}}\\[6pt]&={\frac {\Gamma (\alpha +\beta )}{\Gamma (\alpha )\Gamma (\beta )}}\,x^{\alpha -1}(1-x)^{\beta -1}\\[6pt]&={\frac {1}{\mathrm {B} (\alpha ,\beta )}}x^{\alpha -1}(1-x)^{\beta -1}\end{aligned}}} Fonction de répartition La fonction de répartition est
F ( x ; α , β ) = B x ( α , β ) B ( α , β ) = I x ( α , β ) {\displaystyle F(x;\alpha ,\beta )={\frac {\mathrm {B} _{x}(\alpha ,\beta )}{\mathrm {B} (\alpha ,\beta )}}=I_{x}(\alpha ,\beta )\!} où B x ( α , β ) := ∫ 0 x u α − 1 ( 1 − u ) β − 1 d u . {\displaystyle \mathrm {B} _{x}(\alpha ,\beta ):=\int _{0}^{x}u^{\alpha -1}\,(1-u)^{\beta -1}\,du.} est la fonction bêta incomplète et I x ( α , β ) {\displaystyle I_{x}(\alpha ,\beta )} est la fonction bêta incomplète régularisée.
Propriétés Moments La fonction génératrice des moments est
1 F 1 ( α ; α + β ; t ) {\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;t)} où 1 F 1 désigne la fonction hypergéométrique confluente , aussi notée M ( α ; α + β ; t ) {\displaystyle {}M(\alpha ;\alpha +\beta ;t)} .
Sa fonction caractéristique est
1 F 1 ( α ; α + β ; i t ) {\displaystyle {}_{1}F_{1}(\alpha ;\alpha +\beta ;\mathrm {i} t)} Formes La densité de la loi bêta peut prendre différentes formes selon les valeurs des deux paramètres:
α < 1 , β < 1 {\displaystyle \alpha <1,\ \beta <1} est en forme de U (graphe rouge) ; α < 1 , β ≥ 1 {\displaystyle \alpha <1,\ \beta \geq 1} ou α = 1 , β > 1 {\displaystyle \alpha =1,\ \beta >1} est strictement décroissant (graphe bleu) ; α = 1 , β > 2 {\displaystyle \alpha =1,\ \beta >2} est strictement convexe ; α = 1 , β = 2 {\displaystyle \alpha =1,\ \beta =2} est une droite ; α = 1 , 1 < β < 2 {\displaystyle \alpha =1,\ 1<\beta <2} est strictement concave ; α = 1 , β = 1 {\displaystyle \alpha =1,\ \beta =1} est la loi uniforme continue ; α = 1 , β < 1 {\displaystyle \alpha =1,\ \beta <1} ou α > 1 , β ≤ 1 {\displaystyle \alpha >1,\ \beta \leq 1} est strictement croissant (graphe vert) ; α > 2 , β = 1 {\displaystyle \alpha >2,\ \beta =1} est strictement convexe ; α = 2 , β = 1 {\displaystyle \alpha =2,\ \beta =1} est une droite ; 1 < α < 2 , β = 1 {\displaystyle 1<\alpha <2,\ \beta =1} est strictement concave ; α > 1 , β > 1 {\displaystyle \alpha >1,\ \beta >1} est unimodal (graphes noir et violet). Qui plus est, si α = β {\displaystyle \alpha =\beta } alors la densité est symétrique autour de 1/2 (graphes rouge et violet).
Généralisations La loi bêta peut se généraliser en :
Estimation des paramètres Soit la moyenne empirique
x ¯ = 1 N ∑ i = 1 N x i {\displaystyle {\bar {x}}={\frac {1}{N}}\sum _{i=1}^{N}x_{i}} et la variance empirique.
v = 1 N ∑ i = 1 N ( x i − x ¯ ) 2 {\displaystyle v={\frac {1}{N}}\sum _{i=1}^{N}(x_{i}-{\bar {x}})^{2}} La méthode des moments fournit les estimations suivantes[ 1] :
α = x ¯ ( x ¯ ( 1 − x ¯ ) v − 1 ) , {\displaystyle \alpha ={\bar {x}}\left({\frac {{\bar {x}}(1-{\bar {x}})}{v}}-1\right),} β = ( 1 − x ¯ ) ( x ¯ ( 1 − x ¯ ) v − 1 ) . {\displaystyle \beta =(1-{\bar {x}})\left({\frac {{\bar {x}}(1-{\bar {x}})}{v}}-1\right).} Distributions associées Si X {\displaystyle X} a une distribution bêta, alors la variable aléatoire T = X 1 − X {\displaystyle T={\frac {X}{1-X}}} est distribuée selon la loi bêta prime . La loi bêta-binomiale est la loi conjuguée de la loi bêta. Si X ∼ U ( 0 ; 1 ) {\displaystyle X\sim \operatorname {U} (0;1)} est une variable suivant la loi uniforme continue , alors X r ∼ Beta ( 1 / r , 1 ) {\displaystyle X^{r}\sim \operatorname {Beta} (1/r,1)\ } (pour tout r > 0 {\displaystyle r>0} ). Si X ∼ Beta ( α , 1 ) {\displaystyle X\sim \operatorname {Beta} (\alpha ,1)} , alors − ln ( X ) ∼ Exp ( α ) {\displaystyle -\ln(X)\sim \operatorname {Exp} (\alpha )} suit une loi exponentielle . Si X {\displaystyle X} et Y {\displaystyle Y} sont indépendamment distribués selon une loi Gamma , de paramètres ( α , θ ) {\displaystyle (\alpha ,\theta )} et ( β , θ ) {\displaystyle (\beta ,\theta )} respectivement, alors la variable aléatoire X X + Y {\displaystyle {\frac {X}{X+Y}}} est distribuée selon une loi B e t a ( α , β ) {\displaystyle \mathrm {Beta} (\alpha ,\beta )} . La k -ème statistique d'ordre d'un n -échantillon de lois uniformes U ( 0 ; 1 ) {\displaystyle \operatorname {U} (0;1)\,} suit la loi Beta ( k , n − k + 1 ) {\displaystyle \operatorname {Beta} (k,n-k+1)\ } . La loi Beta ( 1 / 2 , 1 / 2 ) {\displaystyle \operatorname {Beta} (1/2,1/2)} est appelée loi arc sinus . La loi bêta peut s'interpréter comme marginale d'une loi de Dirichlet . En effet, si ( X 1 , … , X n ) ∼ Dirichlet ( α 1 , … , α n ) {\displaystyle (X_{1},\dots ,X_{n})\sim \operatorname {Dirichlet} (\alpha _{1},\dots ,\alpha _{n})} alors X i ∼ Beta ( α i , ∑ k = 1 n α k − α i ) . {\displaystyle X_{i}\sim \operatorname {Beta} \left(\alpha _{i},\sum _{k=1}^{n}\alpha _{k}-\alpha _{i}\right).} Exemple d'occurrence de la loi bêta La loi bêta apparaît naturellement dans une expérience d'urnes , donnée par George Pólya dans un article de 1930, Sur quelques points de la théorie des probabilités [ 2] . Il décrit l'expérience suivante : on se donne une urne contenant initialement r boules rouges et b boules bleues, on tire une boule dans l'urne, puis on la remet dans l'urne avec une deuxième boule de même couleur. Alors la proportion de boules rouges tend vers une variable aléatoire de loi Βeta(r , b ) , et, inversement, la proportion de boules bleues tend vers une variable aléatoire de loi Βeta(b , r ) .
Ce processus étudié par Pólya est ce que l'on appelle aujourd'hui un processus renforcé.
Notes et références (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé
« Beta distribution » (voir la liste des auteurs) .
↑ (en) « Beta distribution with given mean and variance », 7 avril 2021 ↑ George Pólya, « Sur quelques points de la théorie des probabilités », Annales de l'Institut Henri Poincaré , 1930 , p. 150 (lire en ligne, consulté le 5 décembre 2018 ) Voir aussi Liens externes (en) Beta Distribution par Fiona Maclachlan, Wolfram Demonstrations Project , 2007 (en) Beta Distribution – Overview and Example, xycoon.com (fr) Article de Gearge Polya, "Sur quelques points de la théorie des probabilité, archive de l'institut Henri Poincaré, numdam.org (en) Beta Distribution, brighton-webs.co.uk Portail des probabilités et de la statistique