Loi de probabilité à plusieurs variables

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables.

Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe. La description des notions correspondantes, certaines d'entre elles généralisant les notions relatives à une seule variable, est simplifiée de deux manières :

  • Seules les variables continues sont considérées. Il est possible de passer aux variables discrètes en utilisant la fonction de Heaviside et la fonction de Dirac.
  • Pour éviter la lourdeur des formules, l'exposé est limité à deux variables.

Formules de base

La probabilité pour que la variable aléatoire X {\displaystyle X\,} prenne une valeur numérique inférieure à x {\displaystyle x\,} alors que Y {\displaystyle Y\,} prend une valeur inférieure à y {\displaystyle y\,} définit la fonction de répartition [1]:p. 89:

F X Y ( x , y ) = P ( X x , Y y ) {\displaystyle F_{XY}(x,y)=\mathbb {P} (X\leq x,Y\leq y)}

Celle-ci est non décroissante en x {\displaystyle x\,} et en y {\displaystyle y\,} entre la valeur 0 lorsque les deux variables tendent vers {\displaystyle -\infty \,} et la valeur 1 lorsqu'elles tendent toutes deux vers + {\displaystyle +\infty \,} .

La densité de probabilité jointe ou loi jointe s'obtient par une double dérivation :

f X Y ( x , y ) = 2 x y F X Y ( x , y ) {\displaystyle f_{XY}(x,y)={\frac {\partial ^{2}}{\partial x\,\partial y}}F_{XY}(x,y)}

Une intégration par rapport à y {\displaystyle y\,} (resp. x {\displaystyle x\,} ) donne la densité de probabilité marginale ou loi marginale de X {\displaystyle X\,} (resp. Y {\displaystyle Y\,} ) :

f X ( x ) = f X Y ( x , y ) d y {\displaystyle f_{X}(x)=\int _{-\infty }^{\infty }f_{XY}(x,y)\,\mathrm {d} y}

Le rapport de la densité de probabilité jointe (relative à une valeur x {\displaystyle x\,} ) à la densité marginale de Y {\displaystyle Y\,} (concernant toutes les valeurs x {\displaystyle x\,} ) représente la densité de probabilité conditionnelle de X {\displaystyle X\,} sous la condition Y = y {\displaystyle Y=y\,}  :

f X | Y ( x , y ) = f X Y ( x , y ) f Y ( y ) {\displaystyle f_{X|Y}(x,y)={\frac {f_{XY}(x,y)}{f_{Y}(y)}}}

Espérances mathématiques

L'espérance mathématique d'une fonction g {\displaystyle g\,} de deux variables généralise la formule donnée pour une seule variable :

E [ g ( X , Y ) ] =   g ( x , y ) p X Y ( x , y ) d x d y {\displaystyle \mathbb {E} [g(X,Y)]=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }\ g(x,y)\,p_{XY}(x,y)\,\mathrm {d} x\,\mathrm {d} y}

L'opérateur espérance est linéaire ; en particulier, l'espérance (la moyenne) d'une somme de deux variables aléatoires est la somme des moyennes :

E [ X + Y ] = E [ X ] + E [ Y ] {\displaystyle \mathbb {E} [X+Y]=\mathbb {E} [X]+\mathbb {E} [Y]\,}

Parmi ces espérances, une double transformation de Fourier conduit à la fonction caractéristique:

φ X Y ( θ , ψ ) = E [ e i ( θ X + ψ Y ) ] {\displaystyle \varphi _{XY}(\theta ,\psi )=\mathbb {E} [e^{i(\theta X+\psi Y)}]}

Comme pour le cas d'une seule variable aléatoire un développement en série permet de faire apparaître les moments que l'on peut centrer par soustraction des moyennes.

Indépendance

Si la densité de probabilité conditionnelle de X {\displaystyle X\,} par rapport à Y {\displaystyle Y\,} est identique à la densité marginale :

p X ( x ) = p X Y ( x , y ) p Y ( y ) {\displaystyle p_{X}(x)={\frac {p_{XY}(x,y)}{p_{Y}(y)}}}

on dit que les deux variables sont indépendantes. L'égalité se réécrit :

p X Y ( x , y ) = p X ( x ) p Y ( y ) {\displaystyle p_{XY}(x,y)=p_{X}(x)\,p_{Y}(y)\,}

La fonction caractéristique de la somme des variables est alors égale au produit des fonctions caractéristiques individuelles :

Z = X + Y φ Z ( θ ) = φ X ( θ ) φ Y ( θ ) {\displaystyle Z=X+Y\qquad \varphi _{Z}(\theta )=\varphi _{X}(\theta )\,\varphi _{Y}(\theta )}

C'est l'une des principales propriétés de la fonction caractéristique. Cette remarque est, entre autres, utilisée dans la démonstration du théorème central limite.

Corrélation

On appelle corrélation de deux variables aléatoires la grandeur:

ρ = E [ ( X X ¯ ) ( Y Y ¯ ) ] σ ( X ) σ ( Y ) {\displaystyle \rho ={\frac {\mathbb {E} [(X-{\overline {X}})(Y-{\overline {Y}})]}{\sigma (X)\,\sigma (Y)}}}

σ ( X ) = E [ ( X X ¯ ) 2 ] {\displaystyle \sigma (X)={\sqrt {\mathbb {E} [(X-{\overline {X}})^{2}]}}} est l'écart-type de la variable X {\displaystyle X} . La corrélation de deux variables est comprise entre -1 et 1. Pour une corrélation proche de 1 la variable X aura tendance à être grande quand Y le sera et vice versa. Pour une corrélation proche de -1 la variable X aura tendance à être petite quand Y le sera grande. Si la covariance est nulle on dit que les deux variables sont décorrélées. La formule se développe alors en:

E [ X Y ] = E [ X ] E [ Y ] {\displaystyle \mathbb {E} [XY]=\mathbb {E} [X]\,\mathbb {E} [Y]\,}

Si les deux variables sont indépendantes, elles sont décorrélées, l'inverse n'étant pas vrai, car l'indépendance implique tous les moments au lieu d'un seul. La notion de variables décorrélées est plus faible que celle d'indépendance et est loin d'avoir la même utilité.

Notes et références

  1. Park,Kun Il, Fundamentals of Probability and Stochastic Processes with Applications to Communications, Springer, (ISBN 978-3-319-68074-3)
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique