Loi géométrique

Loi géométrique
Image illustrative de l’article Loi géométrique
Fonction de masse
Image illustrative de l’article Loi géométrique
Fonction de répartition

Paramètres p ] 0 ; 1 [ {\displaystyle p\in ]0;1[}

q = 1 p {\displaystyle q=1-p}

Support k N {\displaystyle k\in \mathbb {N} ^{*}}
Fonction de masse q k 1 p {\displaystyle q^{k-1}p}
Fonction de répartition 1 q k {\displaystyle 1-q^{k}}
Espérance 1 p {\displaystyle {\frac {1}{p}}}
Médiane ln 2 ln q {\displaystyle \left\lceil {\frac {-\ln 2}{\ln q}}\right\rceil }

(pas unique si ln 2 / ln q Z {\displaystyle {\ln 2}/{\ln q}\in \mathbb {Z} } )

Mode 1 {\displaystyle 1}
Variance q p 2 {\displaystyle {\frac {q}{p^{2}}}}
Asymétrie 2 p q {\displaystyle {\frac {2-p}{\sqrt {q}}}}
Kurtosis normalisé 6 + p 2 q {\displaystyle 6+{\frac {p^{2}}{q}}}
Entropie q log 2 q p log 2 p p {\displaystyle {\frac {-q\log _{2}q-p\log _{2}p}{p}}}
Fonction génératrice des moments p e t 1 q e t {\displaystyle {\frac {p\mathrm {e} ^{t}}{1-q\mathrm {e} ^{t}}}}
Fonction caractéristique p e i t 1 q e i t {\displaystyle {\frac {p\mathrm {e} ^{\mathrm {i} t}}{1-q\mathrm {e} ^{\mathrm {i} t}}}}
Fonction génératrice des probabilités p t 1 q t {\displaystyle {\frac {pt}{1-qt}}}
modifier Consultez la documentation du modèle

En théorie des probabilités, la loi géométrique de paramètre p {\displaystyle p} peut désigner, selon la convention choisie, l'une des deux lois de probabilité suivantes :

  • la loi de probabilité d'une variable aléatoire (v.a.) X {\displaystyle X} comptant le nombre d'épreuves de Bernoulli indépendantes de probabilité de succès p ∈ ]0,1[ nécessaires pour obtenir le premier succès. X {\displaystyle X} est la variable aléatoire donnant le rang du premier succès. Le support de la loi est alors {1, 2, 3, ...}.
  • La loi d'une variable aléatoire (v.a.) Y {\displaystyle Y} comptant le nombre d'échecs avant le premier succès dans une répétition d'épreuves de Bernoulli indépendantes de probabilité de succès p {\displaystyle p} Le support de la loi est alors {0, 1, 2, 3, ...}. On remarque que les variables aléatoires sont liées par la relation Y = X 1 {\displaystyle Y=X-1}

Ces deux lois sont différentes. C'est pourquoi il faut préciser la convention choisie en indiquant le support.

Par la suite, sauf mention contraire, on considèrera que X {\displaystyle X} représente le rang du premier succès (le nombre d'épreuves effectuées dont celle réussie) et on notera q = 1 p {\displaystyle q=1-p} la probabilité d'un échec dans l'épreuve de Bernoulli.

Exemples

  • Supposons un dé équilibré à 6 faces. X {\displaystyle X} peut permettre de déterminer le nombre moyen de lancers nécessaire pour obtenir un 6. Ce nombre est l'espérance de la loi géométrique de paramètre p = 1 6 {\textstyle p={\frac {1}{6}}} .
  • Supposons une machine à vêtements démarrant à l'instant t 0 {\displaystyle t_{0}} puis opérant aux instants t 1 < t 2 < t 3 < {\displaystyle t_{1}<t_{2}<t_{3}<\dots } En chaque instant la machine a une probabilité p = 0 , 002 {\textstyle p=0,002} de tomber en panne. Y {\displaystyle Y} peut permettre de modéliser le temps de fonctionnement sans panne T = t Y t 0 {\textstyle T=t_{Y}-t_{0}} .

Définition

Support sur les entiers strictement positifs

Soit q = 1 p {\displaystyle q=1-p} . Alors :

P ( X = k ) = q k 1 p k N {\displaystyle \mathbb {P} (X=k)=q^{k-1}p\quad \forall k\in \mathbb {N} ^{*}}

La probabilité P ( X = k ) {\displaystyle \mathbb {P} (X=k)} correspond à la probabilité d'obtenir dans une succession de k épreuves de Bernoulli, k – 1 échecs suivis d'un succès. Les épreuves étant indépendantes, cette probabilité est de qk – 1p. Dans la suite, nous prenons cette définition.

Support sur les entiers positifs

Pour l'autre définition, le nombre Y {\displaystyle Y} d'échecs avant succès :

P ( Y = k ) = q k p {\displaystyle \mathbb {P} (Y=k)=q^{k}p}

Y {\displaystyle Y} n'est qu'un décalage de X {\displaystyle X} . Son espérance n'est pas 1 p {\textstyle {\frac {1}{p}}} mais 1 p 1 = q p {\textstyle {\frac {1}{p}}-1={\frac {q}{p}}} . En revanche, la variance est identique pour les deux définitions.

Modèle de durée de vie et loi exponentielle

Si on appelle p {\displaystyle p} la probabilité de désintégration d'une particule radioactive en chaque instant, la loi géométrique est le premier modèle discret de la mort d'une particule radioactive. La durée de vie de la particule radioactive V {\displaystyle V} suit la loi de probabilité suivante :

P ( V = k ) = q k 1 k N {\displaystyle \mathbb {P} (V=k)=q^{k-1}\quad \forall k\in \mathbb {N} ^{*}}
P ( V > k ) = q k = e k ln q {\displaystyle \mathbb {P} (V>k)=q^{k}=\mathrm {e} ^{k\ln q}}

Si p {\displaystyle p} est petit, ln ( 1 p ) {\displaystyle \ln(1-p)} est proche de p {\displaystyle -p} . Donc

P ( V > k ) e k p {\displaystyle \mathbb {P} (V>k)\approx \mathrm {e} ^{-kp}}

On retrouve la distribution de la loi exponentielle.

Espérance, variance, écart type

L'espérance d'une variable aléatoire X suivant une loi géométrique de paramètre p est 1p, et sa variance est q/p2q = 1 – p est la probabilité d'échec :

E [ X ] = 1 p , V [ X ] = 1 p p 2 = q p 2 . {\displaystyle \mathbb {E} [X]={\frac {1}{p}},\qquad \mathbb {V} [X]={\frac {1-p}{p^{2}}}={\frac {q}{p^{2}}}.}

L'écart type est donc q/p.

Démonstration

Calculs préliminaires : pour tout x de [0, 1[,

f ( x ) = k = 0 + x k = 1 1 x f ( x ) = k = 1 + k x k 1 = 1 ( 1 x ) 2 f ( x ) = k = 2 + k ( k 1 ) x k 2 = 2 ( 1 x ) 3 . {\displaystyle {\begin{aligned}f(x)&=\sum _{k=0}^{+\infty }x^{k}={\frac {1}{1-x}}\\f^{\prime }(x)&=\sum _{k=1}^{+\infty }kx^{k-1}={\frac {1}{(1-x)^{2}}}\\f^{\prime \prime }(x)&=\sum _{k=2}^{+\infty }k(k-1)x^{k-2}={\frac {2}{(1-x)^{3}}}.\end{aligned}}}
En particulier :
k = 1 + k 2 x k 1 = x k = 2 + k ( k 1 ) x k 2 + k = 1 + k x k 1 = 2 x ( 1 x ) 3 + 1 ( 1 x ) 2 = 2 ( 1 x ) 3 1 ( 1 x ) 2 . {\displaystyle {\begin{aligned}\sum _{k=1}^{+\infty }k^{2}x^{k-1}&=x\sum _{k=2}^{+\infty }k(k-1)x^{k-2}+\sum _{k=1}^{+\infty }kx^{k-1}\\&={\frac {2x}{(1-x)^{3}}}+{\frac {1}{(1-x)^{2}}}\\&={\frac {2}{(1-x)^{3}}}-{\frac {1}{(1-x)^{2}}}.\end{aligned}}}
On peut alors utiliser ces identités pour le calcul de l'espérance :
E ( X ) = k = 1 + k q k 1 p = p ( 1 q ) 2 = 1 p , {\displaystyle {\begin{aligned}\mathbb {E} (X)&=\sum _{k=1}^{+\infty }kq^{k-1}p\\&={\frac {p}{(1-q)^{2}}}\\&={\frac {1}{p}},\end{aligned}}}
car q = 1 – p, et pour celui de la variance :
V a r ( X ) = ( k = 1 + k 2 q k 1 p ) E [ X ] 2 = 2 p ( 1 q ) 3 p ( 1 q ) 2 1 p 2 = 2 p 2 1 p 1 p 2 = q p 2 , {\displaystyle {\begin{aligned}\mathrm {Var} (X)&=\left(\sum _{k=1}^{+\infty }k^{2}q^{k-1}p\right)-\mathbb {E} [\mathrm {X} ]^{2}\\&={\frac {2p}{(1-q)^{3}}}-{\frac {p}{(1-q)^{2}}}-{\frac {1}{p^{2}}}\\&={\frac {2}{p^{2}}}-{\frac {1}{p}}-{\frac {1}{p^{2}}}\\&={\frac {q}{p^{2}}},\end{aligned}}}
la première égalité ci-dessus provenant du théorème de König-Huygens.

Par exemple, pour p = 1 / 2 {\displaystyle p=1/2} , E [ X ] = 2 , V [ X ] = 2 , σ [ X ] = 2 {\displaystyle \mathbb {E} [X]=2,\mathbb {V} [X]=2,\sigma [X]={\sqrt {2}}} et l'écart moyen EM ( X ) = E ( | X 2 | ) = k = 1 + | k 2 | / 2 k = 1 {\displaystyle {\textbf {EM}}(X)=\mathbb {E} (|X-2|)=\sum _{k=1}^{+\infty }{|k-2|/2^{k}}=1} .

Liens avec d'autres lois

Lien avec la loi géométrique tronquée

Dans les programmes 2011 de Première Scientifique en France[1], on appelle loi géométrique tronquée de paramètres n et p, la loi de la variable aléatoire obtenue en limitant à n le nombre d'épreuves de Bernoulli de paramètre p et en notant k le rang du premier succès. Par convention, s'il n'advient aucun succès au cours des n essais, on pose X = 0 (on trouve parfois pour X le nombre d'échecs consécutifs obtenus avant l'obtention d'un premier succès au cours des n épreuves[2]). La probabilité que X = k est alors, pour k = 1, 2, 3, ..., n :

P ( X = k ) = q k 1 p {\displaystyle \mathbb {P} (X=k)=q^{k-1}p}

et pour k = 0

P ( X = 0 ) = q n . {\displaystyle \mathbb {P} (X=0)=q^{n}.}

Cette loi de probabilité a pour espérance[1]: E ( X ) = 1 p ( 1 ( n p + 1 ) q n ) {\displaystyle \mathbb {E} (X)={\frac {1}{p}}\left(1-\left(np+1\right)q^{n}\right)} q = 1 – p.

Le terme « tronquée », ici, n'a pas le même sens que celui que l'on trouve dans la définition d'une loi tronquée.

Lien avec la loi exponentielle

La loi géométrique est une version discrétisée de la loi exponentielle. En conséquence, la loi exponentielle est une limite de lois géométriques renormalisées.

Propriété — Si X suit la loi exponentielle d'espérance 1, et si Y = θ X ,   θ > 0 , {\displaystyle Y=\lceil \theta X\rceil ,\ \theta >0,} alors Y suit la loi géométrique de paramètre

p   =   1 e   1 θ . {\displaystyle p\ =\ 1-\mathrm {\mathrm {e} } ^{-\ {\tfrac {1}{\theta }}}.}
Démonstration
P ( Y = k ) = P ( θ X = k ) = P ( θ X ] k 1 , k ] ) = P ( X ] k 1 θ , k θ ] ) = F X ( k θ ) F X ( k 1 θ ) = exp (   k 1 θ ) exp (   k θ ) = ( e   1 θ ) k 1   ( 1 e   1 θ ) . {\displaystyle {\begin{aligned}\mathbb {P} (Y=k)&=\mathbb {P} (\lceil \theta X\rceil =k)\\&=\mathbb {P} (\theta X\in ]k-1,k])\\&=\mathbb {P} \left(X\in \left]{\tfrac {k-1}{\theta }},{\tfrac {k}{\theta }}\right]\right)\\&=F_{X}\left({\tfrac {k}{\theta }}\right)-F_{X}\left({\tfrac {k-1}{\theta }}\right)\\&=\exp \left(-\ {\tfrac {k-1}{\theta }}\right)-\exp \left(-\ {\tfrac {k}{\theta }}\right)\\&=\left(\mathrm {e} ^{-\ {\tfrac {1}{\theta }}}\right)^{k-1}\ \left(1-\mathrm {e} ^{-\ {\tfrac {1}{\theta }}}\right).\end{aligned}}}
Diagramme en bâtons de la loi de V et densité de la loi exponentielle de paramètre 1/10.

Notons que, pour un nombre réel x, x {\displaystyle \lceil x\rceil } désigne la partie entière supérieure de x, définie par

x   =   min { k Z   |   k x } . {\displaystyle \lceil x\rceil \ =\ \min \left\{k\in \mathbb {Z} \ |\ k\geqslant x\right\}.}
Conséquence :

Ainsi, pour obtenir une variable aléatoire Y' suivant une loi géométrique de paramètre p arbitraire (avec toutefois la contrainte 0 < p < 1), à partir d'une variable aléatoire exponentielle X' de paramètre λ, il suffit de poser

Y = θ X , {\displaystyle Y^{\prime }=\lceil \theta X^{\prime }\rceil ,}

où l'on a choisi

θ   =   λ ln ( 1 p ) . {\displaystyle \theta \ =\ -{\tfrac {\lambda }{\ln \left(1-p\right)}}.}

En effet, X = λ X {\displaystyle X=\lambda \,X^{\prime }} suit une loi exponentielle de paramètre 1 (et d'espérance 1).

Réciproquement,

Propriété — Si, pour n 1 , {\displaystyle n\geq 1,} la variable aléatoire Yn suit la loi géométrique de paramètre pn, et si, simultanément,

lim n p n   =   0 et lim n p n / a n   =   λ > 0 , {\displaystyle \lim _{n}p_{n}\ =\ 0\qquad {\text{et}}\qquad \lim _{n}p_{n}/a_{n}\ =\ \lambda >0,}

alors anYn converge en loi vers la loi exponentielle de paramètre λ.

Démonstration

On se donne une variable aléatoire exponentielle X de paramètre 1, et on pose

θ n = 1 ln ( 1 p n ) , Y n = θ n X . {\displaystyle {\begin{aligned}\theta _{n}&=-{\tfrac {1}{\ln \left(1-p_{n}\right)}},\\\mathrm {Y} _{n}^{\prime }&=\lceil \theta _{n}\mathrm {X} \rceil .\end{aligned}}}

Alors Yn et Y n {\displaystyle Y_{n}^{\prime }} ont même loi, en vertu de la propriété précédente. Par ailleurs, pour tout ω

lim n a n Y n ( ω )   =   lim n a n θ n X ( ω ) =   ( lim n a n θ n )   X ( ω )   =   X ( ω ) / λ . {\displaystyle \lim _{n}a_{n}Y_{n}^{\prime }(\omega )\ =\ \lim _{n}a_{n}\lceil \theta _{n}X(\omega )\rceil =\ \left(\lim _{n}a_{n}\theta _{n}\right)\ X(\omega )\ =\ X(\omega )/\lambda .}

Or d'une part la convergence presque sûre entraine la convergence en loi, d'autre part la loi de X/λ est la loi exponentielle de paramètre λ.

Lien avec la loi binomiale négative

Si Xn est une variable aléatoire distribuée selon la loi binomiale négative de paramètres n et p, alors Xn a même loi que la somme de n variables aléatoires indépendantes distribuées selon une loi géométrique de paramètre p.

Voir aussi

Notes et références

  1. a et b Document ressource éduscol - Statistique et probabilité - Juin 2011, pp. 13-24
  2. Cours de probabilité 2011/2012 de l'U.J.F. de Grenoble, p. 7
v · m
Lois discrètes
à support fini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
Lois absolument continues
à support compact
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
à support semi-infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Lois multidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique