Loi de probabilité marginale

Page d’aide sur l’homonymie

Pour les articles homonymes, voir Probabilité (homonymie).

En théorie des probabilités et en statistique, la loi marginale d'un vecteur aléatoire, c'est-à-dire d'une variable aléatoire à plusieurs dimensions, est la loi de probabilité d'une de ses composantes. Autrement dit, la loi marginale est une variable aléatoire obtenue par « projection » d'un vecteur contenant cette variable.

Par exemple, pour un vecteur aléatoire ( X 1 , X 2 , X 3 ) {\displaystyle (X_{1},X_{2},X_{3})} , la loi de la variable aléatoire X 2 {\displaystyle X_{2}} est la deuxième loi marginale du vecteur.

Définition

Pour obtenir la loi marginale d'un vecteur, on projette la loi sur l'espace unidimensionnel de la coordonnée recherchée. La loi de probabilité de la i-ème coordonnée d'un vecteur aléatoire est appelée la i-ème loi marginale. La loi marginale P i {\displaystyle \mathbb {P} _{i}} de P {\displaystyle \mathbb {P} } s'obtient par la formule :

P i ( A ) = P X i ( A ) = 1 ω i A P ( d ( ω 1 , , ω n ) ) {\displaystyle \mathbb {P} _{i}(A)=\mathbb {P} _{X_{i}}(A)=\iint {1}_{\omega _{i}\in A}\,\mathbb {P} (\mathrm {d} (\omega _{1},\dots ,\omega _{n}))} pour tout A B ( R ) {\displaystyle A\in {\mathcal {B}}(\mathbb {R} )} .

Soient X {\displaystyle X} et Y {\displaystyle Y} deux variables aléatoires de l'espace probabilisé ( Ω , E , p ) {\displaystyle (\Omega ,{\mathcal {E}},p)} vers l'espace mesurable ( F , F ) {\displaystyle (F,{\mathcal {F}})} et B F {\displaystyle B\in {\mathcal {F}}} .

Les lois de probabilité marginales du vecteur aléatoire Z = ( X , Y ) {\displaystyle Z=(X,Y)} sont les lois de probabilité de X {\displaystyle X} et de Y {\displaystyle Y} . On traite ici celle de X {\displaystyle X} (la méthode est la même pour celle de Y {\displaystyle Y} ). D'après le théorème des probabilités totales, elle est liée à la loi de probabilité conditionnelle :

P X ( B ) = Ω P ( X 1 B d ω Y ) = F P ( X , Y ) ( B , d y ) . {\displaystyle \mathbb {P} _{X}(B)=\int _{\Omega }\mathbb {P} (X^{-1}\langle B\rangle \cap \mathrm {d} \omega _{Y})=\int _{F}\mathbb {P} _{(X,Y)}(B,\mathrm {d} y).}

Exemples

Loi discrète

Si Y {\displaystyle Y} est une variable aléatoire discrète à valeurs dans un ensemble dénombrable S F {\displaystyle S\subset F} , alors :

P X ( B ) = y S P ( X , Y ) ( B , { y } ) . {\displaystyle \mathbb {P} _{X}(B)=\sum _{y\in S}\mathbb {P} _{(X,Y)}(B,\{y\}).}

C'est notamment le cas quand S {\displaystyle S} est fini. En notant y 1 , , y n {\displaystyle y_{1},\dots ,y_{n}} ses valeurs et P X , 1 ( B ) , , P X , n ( B ) {\displaystyle \mathbb {P} _{X,1}(B),\dots ,\mathbb {P} _{X,n}(B)} les probabilités P X , Y ( B , { y 1 } ) , , P X , Y ( B , { y n } ) {\displaystyle \mathbb {P} _{X,Y}(B,\{y_{1}\}),\dots ,\mathbb {P} _{X,Y}(B,\{y_{n}\})} , la loi de probabilité devient :

P X ( B ) = i = 1 n P X , i ( B ) . {\displaystyle \mathbb {P} _{X}(B)=\sum _{i=1}^{n}\mathbb {P} _{X,i}(B).}

Le tableau suivant donne un exemple. On a marqué les probabilités que X = xi et Y = yj. La loi marginale pour X donne les probabilités que X = xi. Elle est donnée sur la dernière ligne. Par exemple, la probabilité que X = x1 est obtenue en sommant les probabilités d'avoir X = x1 et Y = y1, X = x1 et Y = y2, et X = x1 et Y = y3. Ainsi, on a 16/32 = 4/32+3/32+9/32. De même, la loi marginale pour Y est donné dans la dernière colonne.

x1 x2 x3 x4 pY(y) ↓
y1 4/32 2/32 1/32 1/32 8/32
y2 3/32 6/32 3/32 3/32 15/32
y3 9/32 0 0 0 9/32
pX(x) → 16/32 8/32 4/32 4/32 32/32

Loi absolument continue

Les lois marginales d'une loi absolument continue s'expriment à l'aide de leurs densités marginales par les formules :

f X ( x ) = R   f Z ( x , y ) d y , f Y ( y ) = R   f Z ( x , y ) d x {\displaystyle {\begin{aligned}f_{X}(x)&=\int _{\mathbb {R} }\ f_{Z}(x,y)\,\mathrm {d} y,\\f_{Y}(y)&=\int _{\mathbb {R} }\ f_{Z}(x,y)\,\mathrm {d} x\end{aligned}}}

f Z {\displaystyle f_{Z}} est la densité de probabilité du vecteur Z {\displaystyle Z} .

De manière plus générale, si X {\displaystyle X} et Y {\displaystyle Y} sont des variables aléatoires absolument continues, de densité de probabilité conjointe f ( X , Y ) {\displaystyle f_{(X,Y)}} par rapport à une mesure σ {\displaystyle \sigma } -finie μ {\displaystyle \mu } sur ( F , F ) {\displaystyle (F,{\mathcal {F}})} , alors :

P X ( B ) = F ( B f ( X , Y ) ( x , y ) μ ( d x ) ) μ ( d y ) . {\displaystyle \mathbb {P} _{X}(B)=\int _{F}\left(\int _{B}f_{(X,Y)}(x,y)\mu (\mathrm {d} x)\right)\mu (\mathrm {d} y).}

Notes et références

Voir aussi

Bibliographie

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

  • Jean-François Le Gall, Intégration, Probabilités et Processus aléatoires : cours de l'ENS, , 248 p. (lire en ligne). Ouvrage utilisé pour la rédaction de l'article

Articles connexes

  • icône décorative Portail des probabilités et de la statistique