Vecteur aléatoire

Cet article est une ébauche concernant les mathématiques.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Un vecteur aléatoire est aussi appelé variable aléatoire multidimensionnelle.

Définition

Un vecteur aléatoire est une généralisation à n dimensions d'une variable aléatoire réelle. Alors qu'une variable aléatoire réelle est une fonction qui à chaque éventualité fait correspondre un nombre réel, le vecteur aléatoire est une fonction X qui à chaque éventualité fait correspondre un vecteur de R n {\displaystyle \mathbb {R} ^{n}}  :

X : ω X ( ω ) = ( X 1 ( ω ) , X 2 ( ω ) , , X n ( ω ) ) {\displaystyle X:\omega \mapsto X(\omega )=(X_{1}(\omega ),X_{2}(\omega ),\dots ,X_{n}(\omega ))}

ω est l'élément générique de Ω, l'espace de toutes les éventualités possibles.

Les applications X1, ..., Xn sont des variables aléatoires réelles appelées composantes du vecteur aléatoire X. On note alors X = (X1, ..., Xn).

Une application X de ( Ω , F ) {\displaystyle (\Omega ,{\mathcal {F}})} (définie sur Ω), à valeurs dans l'espace R n {\displaystyle \mathbb {R} ^{n}} muni de la tribu des boréliens de R n {\displaystyle \mathbb {R} ^{n}} , est un vecteur aléatoire si elle est mesurable.

Fonction de répartition

Soit X = ( X 1 , , X n ) {\displaystyle X=(X_{1},\dots ,X_{n})} un vecteur aléatoire. Sa fonction de répartition F : R n R {\displaystyle F:\mathbb {R} ^{n}\to \mathbb {R} } est ainsi définie :

F ( x 1 , , x n ) = P ( ( X 1 x 1 ) ( X n x n ) ) {\displaystyle F(x_{1},\dots ,x_{n})=\mathbb {P} ((X_{1}\leq x_{1})\cap \cdots \cap (X_{n}\leq x_{n}))}

Indépendance de vecteurs aléatoires

Définition

Deux vecteurs aléatoires sont indépendants si et seulement si la probabilité que ces vecteurs prennent une valeur donnée est égale au produit des probabilités que chaque vecteur prenne une valeur donnée. De plus la covariance des deux vecteurs est nulle.

Exemple

Soit ( Ω , T , P ) {\displaystyle (\Omega ,{\mathcal {T}},\mathbb {P} )} un espace probabilisé. On pose trois vecteurs aléatoires.

X ( Ω ) = { x 1 , . . . , x p } , Y ( Ω ) = { y 1 , . . . , y q } , Z ( Ω ) = { z 1 , . . . , z r } . {\displaystyle X(\Omega )=\{x_{1},...,x_{p}\},\,Y(\Omega )=\{y_{1},...,y_{q}\},\,Z(\Omega )=\{z_{1},...,z_{r}\}.}

Par leur indépendance, on a :

P ( X = x i , Y = y j , Z = z k ) = P ( X = x i ) P ( Y = y j ) P ( Z = z k ) ,   i [ [ 1 ; p ] ] , j [ [ 1 ; q ] ] , k [ [ 1 ; r ] ] . {\displaystyle \mathbb {P} (X=x_{i},Y=y_{j},Z=z_{k})=\mathbb {P} (X=x_{i})\cdot \mathbb {P} (Y=y_{j})\cdot \mathbb {P} (Z=z_{k}),\ \forall i\in [\![1;p]\!],j\in [\![1;q]\!],k\in [\![1;r]\!].}

Vecteur gaussien

Définition

Un vecteur aléatoire de dimension n est un vecteur gaussien si toute combinaison linéaire de ses composantes est une variable gaussienne.

Définition — Soit X = (X1, ..., Xn) un vecteur aléatoire. X est gaussien si et seulement si, pour toute suite (a1, ..., an) de nombres réels, la variable aléatoire

Z = a 1 X 1 + a 2 X 2 + + a n X n {\displaystyle Z=a_{1}X_{1}+a_{2}X_{2}+\cdots +a_{n}X_{n}}

est une variable gaussienne.

Propriétés

  • Soit X {\displaystyle \displaystyle X} un vecteur gaussien à valeurs dans R p {\displaystyle \displaystyle \mathbb {R} ^{p}} . On note m   {\displaystyle \displaystyle m\ } son espérance et Σ {\displaystyle \displaystyle \Sigma } sa matrice de covariance. Soit A M n , p ( R )   {\displaystyle \displaystyle A\in M_{n,p}(\mathbb {R} )\ } et b   R n {\displaystyle \displaystyle b\ \in \mathbb {R} ^{n}} . Alors le vecteur aléatoire A X + b {\displaystyle \displaystyle AX+b} est gaussien, son espérance est A m + b {\displaystyle \displaystyle Am+b} et sa matrice de covariance A Σ A T {\displaystyle \displaystyle A\Sigma A^{T}} .
  • Étant donné un vecteur gaussien X = ( X 1 , , X n ) {\displaystyle X=(X_{1},\ldots ,X_{n})} , alors chacune de ses composantes suit une loi gaussienne. En effet, pour tout i [ [ 1 , n ] ] {\displaystyle \displaystyle i\in [\![1,n]\!]} , on peut écrire : X i = j = 1 n δ i j X j {\displaystyle X_{i}=\sum _{j=1}^{n}\delta _{ij}X_{j}} , où δ i j {\displaystyle \delta _{ij}} est le symbole de Kronecker.
  • En revanche, la réciproque est fausse, on peut avoir toutes les composantes d'un vecteur X {\displaystyle X} qui suivent chacune une loi gaussienne, sans pour autant que X {\displaystyle X} soit un vecteur gaussien. Par exemple, si X {\displaystyle X} et ε {\displaystyle \varepsilon } sont des variables aléatoires indépendantes de lois respectives gaussiennes centrée réduite et de Rademacher, X + ε X {\displaystyle X+\varepsilon X} admet 0 {\displaystyle 0} comme atome et ne suit donc pas une loi gaussienne, donc ( X , ε X ) {\displaystyle (X,\varepsilon X)} n'est pas un vecteur gaussien. Cependant, X {\displaystyle X} et ε X {\displaystyle \varepsilon X} suivent une loi gaussienne centrée réduite.
  • Soit ( X i ) 1 i n {\displaystyle \displaystyle (X_{i})_{1\leqslant i\leqslant n}} une famille de variables aléatoires réelles gaussiennes et indépendantes. Alors le vecteur aléatoire ( X 1 , . . . , X n ) {\displaystyle \displaystyle (X_{1},...,X_{n})} est gaussien.

Construction d'un vecteur gaussien à partir de sa matrice de covariance

Il est notable que toute matrice définie positive est la matrice de covariance d'un vecteur gaussien. De plus on peut déterminer un unique vecteur gaussien à partir de cette matrice et d'un vecteur réel (correspondant au vecteur des moyennes du vecteur gaussien)[1].

Propriété — Soit Γ une matrice réelle définie positive de taille d × d, et μ un vecteur de taille d.

Il existe un unique vecteur gaussien X = (X1, ..., Xn) dont Γ est la matrice de covariance et μ est le vecteur de moyenne.

Γ = ( V a r ( X 1 ) C o v ( X 1 , X 2 ) . . . C o v ( X 1 , X n ) C o v ( X 1 , X 2 ) . . . . . . . . . C o v ( X 1 , X n ) . . . . . . V a r ( X n ) )  et  μ = ( E ( X 1 ) E ( X 2 ) . . . E ( X n ) ) {\displaystyle \Gamma ={\begin{pmatrix}\mathrm {Var} (X_{1})&\mathrm {Cov} (X_{1},X_{2})&...&\mathrm {Cov} (X_{1},X_{n})\\\mathrm {Cov} (X_{1},X_{2})&...&...&\\...&&&\\\mathrm {Cov} (X_{1},X_{n})&...&...&\mathrm {Var} (X_{n})\\\end{pmatrix}}{\text{ et }}\mu ={\begin{pmatrix}\mathbb {E} (X_{1})\\\mathbb {E} (X_{2})\\...\\\mathbb {E} (X_{n})\end{pmatrix}}}

On note X N ( μ , Γ ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\Gamma )} le vecteur gaussien associé à μ et Γ.

De plus, on peut calculer la densité de ce vecteur gaussien.

Propriété —  Soit X N ( μ , Γ ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\Gamma )} . Sa densité fX(u) s'exprime (avec x R d {\displaystyle x\in \mathbb {R} ^{d}} et d dimension de X) :

f X ( x ) = 1 ( 2 π ) d d e t ( Γ X ) exp ( 1 2 ( x μ ) t Γ 1 ( x μ ) ) {\displaystyle f_{X}(x)={\cfrac {1}{\sqrt {(2\pi )^{d}\mathrm {det} (\Gamma _{X})}}}\exp \left(-{\dfrac {1}{2}}(x-\mu )^{t}\Gamma ^{-1}(x-\mu )\right)}

Enfin, on peut noter cette relation entre X vecteur gaussien et un vecteur de lois normales centrées réduites indépendantes :

Propriété —  Soit X N ( μ , Γ ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\Gamma )} .

X = A Z + μ {\displaystyle X=AZ+\mu }

avec A matrice racine carrée de Γ, μ vecteur des moyennes et Z vecteur aléatoire dont les composantes sont indépendantes et suivent une loi normale N ( 0 , 1 ) {\displaystyle {\mathcal {N}}(0,1)}

Fonction caractéristique

On peut calculer la fonction caractéristique d'un vecteur gaussien :

Propriété —  Soit X N ( μ , Γ ) {\displaystyle X\sim {\mathcal {N}}(\mu ,\Gamma )} .

Sa fonction caractéristique ΦX(u) s'exprime (avec u R d {\displaystyle u\in \mathbb {R} ^{d}} ) :

Φ X ( u ) = exp ( i u t μ 1 2 u t Γ u ) {\displaystyle \Phi _{X}(u)=\exp \left(\mathrm {i} u^{t}\mu -{\frac {1}{2}}u^{t}\Gamma u\right)}

On peut notamment lire directement les caractéristiques d'un vecteur gaussien sur sa transformée de Fourier. En effet, si X = ( X 1 , , X n ) {\displaystyle X=(X_{1},\ldots ,X_{n})} est un vecteur gaussien de fonction caractéristique définie par :

( x 1 , , x n ) R n , Φ X ( x 1 , , x n ) = exp ( i i = 1 n x i μ i 1 2 1 i , j n Γ i , j x i x j ) {\displaystyle \forall (x_{1},\ldots ,x_{n})\in \mathbb {R} ^{n},\Phi _{X}(x_{1},\ldots ,x_{n})=\exp \left(\mathrm {i} \sum _{i=1}^{n}x_{i}\mu _{i}-{\frac {1}{2}}\sum _{1\leq i,j\leq n}\Gamma _{i,j}x_{i}x_{j}\right)}

Alors son vecteur de moyenne est donné par μ = ( μ i ) 1 i n {\displaystyle \mu =(\mu _{i})_{1\leq i\leq n}} et sa matrice de covariance par Γ = ( Γ i j ) 1 i , j n {\displaystyle \Gamma =(\Gamma _{ij})_{1\leq i,j\leq n}} .

Notes et références

  1. Vecteurs Gaussiens, Préparation à l’Agrégation Bordeaux 1, Jean-Jacques Ruch

Bibliographie

  • Patrick Bogaert, Probabilités pour scientifiques et ingénieurs, De Boeck Université, 2006, Bruxelles
  • Alain Combrouze, Probabilités 1, Presses universitaires de France, Paris, 1996.
  • Yves Ducel, Introduction à la théorie mathématique des probabilités, Ellipses , 1998, (ISBN 2-7298-9820-4)
  • Jean-Pascal Ansel, Yves Ducel, Exercices corrigés en théorie des probabilités, Ellipses , 1996, (ISBN 2-7298-4688-3)

Liens internes

Liens externes

  • Vecteurs aléatoires gaussiens
  • Vecteurs aléatoires - rappels et compléments
  • icône décorative Portail des probabilités et de la statistique