Processus gaussien

Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.
Si ce bandeau n'est plus pertinent, retirez-le. Cliquez ici pour en savoir plus.

Cet article ne cite pas suffisamment ses sources ().

Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».

En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

En théorie des probabilités et en statistiques, un processus gaussien est un processus stochastique (une collection de variables aléatoires avec un index temporel ou spatial) de telle sorte que chaque collection finie de ces variables aléatoires suit une loi normale multidimensionnelle ; c'est-à-dire que chaque combinaison linéaire est normalement distribuée. La distribution d'un processus gaussien est la loi jointe de toutes ces variables aléatoires. Ses réalisations sont donc des fonctions avec un domaine continu.

Définition

Un processus stochastique X sur un ensemble fini de sites S est dit gaussien si, pour toute partie finie AS et toute suite réelle (a) sur A, sAasX(s) est une variable gaussienne. Autrement dit, X = ( X t ) t {\displaystyle X=(X_{t})_{t}} avec t { 1 , . . . , n } {\displaystyle t\in \{1,...,n\}} , ( X 1 , . . . , X n ) {\displaystyle (X_{1},...,X_{n})} est un vecteur gaussien.

De ce fait, la loi d'un processus gaussien est entièrement déterminée par sa fonction moyenne m ( t )   =   E [ X t ] {\displaystyle m(t)\ =\ \mathbb {E} [X_{t}]} et son opérateur de covariance K ( s , t )   =   C o v ( X s , X t ) {\displaystyle K(s,t)\ =\ Cov(X_{s},X_{t})} [1].

Posant mA et ΣA la moyenne et la covariance de X sur A, si ΣA est inversible, alors XA = (Xs,sA) admet pour densité (ou vraisemblance) par rapport à la mesure de Lebesgue sur card(A) : f A ( x A ) = ( 2 π ) card ( A ) 2 ( det Σ A ) 1 2 exp ( 1 2 ( x A m A ) T Σ A 1 ( x A m A ) ) {\displaystyle f_{A}\left(x_{A}\right)=\left(2\operatorname {\pi } \right)^{-{\frac {\operatorname {card} \left(A\right)}{2}}}\left(\operatorname {det} \Sigma _{A}\right)^{-{\frac {1}{2}}}\operatorname {exp} \left(-{\frac {1}{2}}\left(x_{A}-m_{A}\right)^{\operatorname {T} }{\Sigma _{A}}^{-1}\left(x_{A}-m_{A}\right)\right)}

Processus gaussien en régression

Les méthodes par processus gaussien peuvent être utilisées dans les problèmes de régression.

Le résultat principal intervient lorsque l'on cherche à estimer une fonction f : χ R {\displaystyle f:\chi \to \mathbb {R} } dont on a observe n {\displaystyle n} réalisations ( x i , f i ) i { 1 , . . . , n } {\displaystyle (x_{i},f_{i})_{i\in \{1,...,n\}}} , on note X = ( x 1 . . . x n ) {\displaystyle X={\begin{pmatrix}x_{1}\\...\\x_{n}\end{pmatrix}}} . On peut modéliser la fonction f {\displaystyle f} par un processus gaussien Y {\displaystyle Y} de moyenne m {\displaystyle m} et de fonction de covariance K {\displaystyle K} qui vérifie Y ( x i ) = f i {\displaystyle Y(x_{i})=f_{i}} . Pour n {\displaystyle n^{*}} nouveau point de l'espace de départ χ {\displaystyle \chi } on note X = ( x 1 . . . ( x n ) ) {\displaystyle X^{*}={\begin{pmatrix}x_{1}^{*}\\...\\(x_{n^{*}})^{*}\end{pmatrix}}} et on a:

( Y ( X ) Y ( X ) ) N ( ( m ( X ) m ( X ) ) , ( K ( X , X ) K ( X , X ) K ( X , X ) K ( X , X ) ) ) {\displaystyle {\begin{pmatrix}Y(X)\\Y(X^{*})\end{pmatrix}}\sim {\mathcal {N}}{\biggl (}{\begin{pmatrix}m(X)\\m(X^{*})\end{pmatrix}},{\begin{pmatrix}K(X,X)&K(X,X^{*})\\K(X^{*},X)&K(X^{*},X^{*})\end{pmatrix}}{\Biggr )}} [2].

Voir aussi

  • Processus de Gauss

Références

  1. Jean-christophe.breton, « Processus Gaussiens »
  2. (en) Carl Edward Rasmussen et Christopher K. I. Williams, Gaussian processes for machine learning, MIT Press, coll. « Adaptive computation and machine learning », (ISBN 978-0-262-18253-9), chap. 2 (« Regression »), p. 7
  • icône décorative Portail des probabilités et de la statistique