Fonction de répartition

Fonctions de répartition d'une variable discrète, d'une variable diffuse et d'une variable avec atome, mais non discrète.

En théorie des probabilités, la fonction de répartition, ou fonction de distribution cumulative, d'une variable aléatoire réelle X est la fonction FX qui, à tout réel x, associe la probabilité que X prenne une valeur inférieure ou égale à x :

F X ( x ) = P ( X x ) {\displaystyle F_{X}(x)=\mathbb {P} (X\leq x)} .

Cette fonction est caractéristique de la loi de probabilité de la variable aléatoire. Elle permet de calculer la probabilité de chaque intervalle semi-ouvert à gauche ]a, b]a < b, par

P ( X ] a , b ] ) = P ( a < X b ) = F X ( b ) F X ( a ) {\displaystyle \mathbb {P} (X\in ]a,b])=\mathbb {P} (a<X\leq b)=F_{X}(b)-F_{X}(a)} .

La fonction de répartition d'une mesure de probabilité P {\displaystyle \mathbb {P} } définie sur la tribu borélienne B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} est la fonction F qui à tout réel x associe

F ( x ) = P ( ] , x ] ) . {\displaystyle F(x)=\mathbb {P} (]-\infty ,x]).}

Exemples de calculs de la fonction de répartition

Variables à densité

Fonction de répartition de la loi normale centrée réduite.

La fonction de répartition FX d'une variable aléatoire X de densité de probabilité fX est une des primitives (en un sens un peu relâché, voir ci-dessous) de cette densité fX. Plus précisément, FX est définie, pour tout nombre réel x, par :

F X ( x ) = x f X ( t ) d t . {\displaystyle F_{X}(x)=\int _{-\infty }^{x}f_{X}(t)\,\mathrm {d} t.}

Toutefois, ce n'est pas, en toute généralité, une primitive au sens strict du terme : on peut seulement affirmer :

  • qu'une fonction de répartition est dérivable presque partout (pour la mesure de Lebesgue) ;
  • que si la variable X est à densité, alors la dérivée de FX est presque partout (pour la mesure de Lebesgue) égale à fX.

Mais il y a beaucoup de « contre-exemples » : la fonction de répartition de la loi uniforme sur un intervalle, ou encore celle de la loi exponentielle, ne sont pas dérivables sur tout R , {\displaystyle \mathbb {R} ,} et ne sont donc pas, au sens strict, des primitives de densités de probabilités.

Notons que, contrairement aux variables discrètes, une variable à densité X vérifie P ( X = a ) = 0 {\displaystyle \mathbb {P} (X=a)=0} pour tout nombre réel a : en conséquence, la fonction de répartition des variables à densité est continue en tout point. En fait une variable aléatoire réelle X possède une densité de probabilité si et seulement si sa fonction de répartition est absolument continue sur chaque intervalle borné.

Variables discrètes

Fonction de répartition de la loi uniforme discrète sur {0,2 ; 0,4 ; 0,6 ; 0,8 ; 1} (pour laquelle pi = 0,2 ; 1 ≤ i ≤ 5, en violet) et de la loi uniforme (continue) sur l'intervalle [0, 1] (en rouge).

Une variable aléatoire X est dite discrète si son support S est fini ou dénombrable, ou bien, de manière équivalente, s'il existe un ensemble A fini ou dénombrable tel que :

P ( X A ) = 1. {\displaystyle \mathbb {P} (X\in A)=1.}

La loi de X est déterminée sans ambiguïté par la donnée de (ps)sS ou de (ps)sA, où

p s = P ( X = s ) . {\displaystyle p_{s}=\mathbb {P} (X=s).}

Si, par exemple, X est une variable aléatoire réelle, on a

F X ( x ) = s S p s 1 [ s , + [ ( x ) . {\displaystyle F_{X}(x)=\sum _{s\in S}p_{s}1_{[s,+\infty [}(x).}

1E est la fonction indicatrice de l'ensemble E.

Pour les variables aléatoires discrètes les plus courantes (par exemple, les lois uniformes, binomiales, de Poisson) S est un ensemble bien ordonné : on peut alors numéroter ses éléments de manière croissante, p.e. s1s2s3 ≤ ... et numéroter les probabilités ps en conséquence, p.e. en posant pi = psi, i ≥ 1. On a alors, si x ∈ [si, si + 1[,

F X ( x ) = 1 j i p j . {\displaystyle F_{X}(x)=\sum _{1\leq j\leq i}p_{j}.}

Soit encore, plus généralement :

F X ( x ) = i 1   q i   1 [ s i , s i + 1 [ ( x ) , q i = 1 j i p j . {\displaystyle {\begin{aligned}F_{X}(x)&=\sum _{i\geq 1}\ q_{i}\ 1_{[s_{i},s_{i+1}[}(x),\\q_{i}&=\sum _{1\leq j\leq i}p_{j}.\end{aligned}}}

La fonction de répartition est alors une fonction constante par intervalles et sa représentation graphique est en escalier. Les sauts d'une marche à l'autre de l'escalier se situent aux abscisses si, et l'amplitude du saut d'abscisse s est ps = FX(s) – FX(s). En particulier la fonction de répartition d'une variable discrète X est discontinue exactement aux points s tels que P ( X = s ) > 0. {\displaystyle \mathbb {P} (X=s)>0.} Voir la section Propriétés de la fonction de répartition pour une démonstration.

Cas spécial : fonction de répartition continue purement singulière

L'escalier de Cantor F est un exemple de fonction de répartition continue mais dont la dérivée est presque partout nulle. Ainsi, les formules précédentes ne sont plus vraies pour l'escalier de Cantor : par exemple pour x > 0, on n'a pas

F ( x ) = x F ( t ) d t {\displaystyle F(x)=\int _{-\infty }^{x}F^{\prime }(t)\,\mathrm {d} t} ,

car F prend des valeurs strictement positives sur ]0, +∞[, alors que l'intégrale constituant le membre de droite est identiquement nulle. En effet, l'ensemble

{ t R F ( t ) 0 } {\displaystyle \{t\in \mathbb {R} \mid F^{\prime }(t)\neq 0\}}

est de mesure de Lebesgue nulle. Par ailleurs, la loi de probabilité associée à l'escalier de Cantor est diffuse (sans atome), puisque F est une fonction continue sur R {\displaystyle \mathbb {R} } . L'escalier de Cantor est en fait un exemple de fonction de répartition continue mais qui n'est pas absolument continue sur chaque intervalle : on dit alors qu'elle est continue purement singulière.

Propriétés de la fonction de répartition

Propriétés caractéristiques

Théorème — La fonction de répartition FX d'une variable aléatoire réelle X a les propriétés caractéristiques suivantes :

  1. FX est croissante ;
  2. Elle est partout continue à droite ;
  3. Elle a pour limite 0 en {\displaystyle -\infty } , i.e. lim x F X ( x ) = 0 {\displaystyle \lim _{x\to -\infty }F_{X}(x)=0}  ;
  4. Elle a pour limite 1 en + {\displaystyle +\infty } , i.e. lim x + F X ( x ) = 1. {\displaystyle \lim _{x\to +\infty }F_{X}(x)=1.}
Démonstration

Le point 1 découle de la propriété de croissance des mesures de probabilité

{ x y } { ] , x ]     ] , y ] } { P X ( ] , x ] ) P X ( ] , y ] ) } . {\displaystyle \{x\leq y\}\Rightarrow \{]-\infty ,x]\ \subset \ ]-\infty ,y]\}\Rightarrow \{\mathbb {P} _{X}(]-\infty ,x])\leq \mathbb {P} _{X}(]-\infty ,y])\}.}

Comme FX est une fonction monotone, le point 2 se réduit à montrer que

lim n F X ( x + 1 n ) = F X ( x ) , {\displaystyle \lim _{n}F_{X}\left(x+{\tfrac {1}{n}}\right)=F_{X}(x),}

ou encore, équivalemment,

lim n P X ( ] , x + 1 n ] ) = P X ( ] , x ] ) . {\displaystyle \lim _{n}\mathbb {P} _{X}\left(\left]-\infty ,x+{\tfrac {1}{n}}\right]\right)=\mathbb {P} _{X}\left(\left]-\infty ,x\right]\right).}

Mais les boréliens ]–∞ , x + 1/n[ forment une suite décroissante, et

n 1 ] , x + 1 n ]   =   ] , x ] , {\displaystyle \bigcap _{n\geq 1}\left]-\infty ,x+{\tfrac {1}{n}}\right]\ =\ \left]-\infty ,x\right],}

donc le point 2 est une conséquence des axiomes des probabilités. Comme FX est monotone, le point 3 se réduit à montrer que

lim n F X ( n ) = 0. {\displaystyle \lim _{n}F_{X}(-n)=0.}

Ceci est encore une conséquence des axiomes des probabilités, puisque

n 1 ] , n ]   =   . {\displaystyle \bigcap _{n\geq 1}\left]-\infty ,-n\right]\ =\ \emptyset .}

Le point 4 découle, de la même manière, de

n 1 ] , n ]   =   R . {\displaystyle \bigcup _{n\geq 1}\left]-\infty ,n\right]\ =\ \mathbb {R} .}

Réciproquement, toute fonction définie sur R {\displaystyle \mathbb {R} } et satisfaisant ces quatre propriétés est la fonction de répartition d’une certaine variable aléatoire. Autrement dit, les points 1 à 4 sont caractéristiques de la fonction de répartition d'une variable aléatoire réelle X : étant donné une fonction réelle de la variable réelle, notons F, satisfaisant les points 1 à 4, on peut construire concrètement une variable aléatoire réelle X ayant F pour fonction de répartition, voir ci-dessous le théorème de la réciproque. Notons que la construction utilisant le théorème de la réciproque sert concrètement à produire, sur ordinateur, des échantillons de taille arbitraire d'une loi de probabilité arbitraire, ce qui est l'ingrédient de base des méthodes de Monte-Carlo.

Remarque

On peut ainsi définir la notion de fonction de répartition sans introduire celle de variable aléatoire : il suffit juste qu'elle vérifie les points 1 à 4 précédents. Si on ajoute à cela la notion de fonction arithmétique, on arrive rapidement dans la théorie probabiliste des nombres.

Autres propriétés

À cause des points 1, 3 et 4, FX est bornée, plus précisément

x R ,       0 F X ( x ) 1. {\displaystyle \forall x\in \mathbb {R} ,\ \ \ 0\leq F_{X}(x)\leq 1.}

Comme toute fonction monotone bornée, FX admet en tout point x une limite à gauche FX(x), limite à gauche égale ou non à FX(x) selon que FX est continue en x ou non. FX est une fonction càdlàg.

La connaissance de la fonction de répartition permet de calculer la probabilité de tout intervalle

  • P ( X ] , x ] ) = P ( X x ) = F X ( x ) , {\displaystyle \mathbb {P} (X\in ]-\infty ,x])\,=\,\mathbb {P} (X\leq x)\,=\,F_{X}(x),}
  • P ( X ] x , + [ ) = P ( X > x ) = 1 F X ( x ) , {\displaystyle \mathbb {P} (X\in ]x,+\infty [)\,=\,\mathbb {P} (X>x)\,=\,1-F_{X}(x),}
  • P ( X ] x , y ] ) = P ( x < X y ) = F X ( y ) F X ( x ) , {\displaystyle \mathbb {P} (X\in ]x,y])\,=\,\mathbb {P} (x<X\leq y)\,=\,F_{X}(y)-F_{X}(x),}
  • P ( X ] , x [ ) = P ( X < x ) = F X ( x ) , {\displaystyle \mathbb {P} (X\in ]-\infty ,x[)\,=\,\mathbb {P} (X<x)\,=\,F_{X}(x_{-}),}
  • P ( X ] x , y [ ) = P ( x < X < y ) = F X ( y ) F X ( x ) , {\displaystyle \mathbb {P} (X\in ]x,y[)\,=\,\mathbb {P} (x<X<y)\,=\,F_{X}(y_{-})-F_{X}(x),}
  • P ( X [ x , y [ ) = P ( x X < y ) = F X ( y ) F X ( x ) , {\displaystyle \mathbb {P} (X\in [x,y[)\,=\,\mathbb {P} (x\leq X<y)\,=\,F_{X}(y_{-})-F_{X}(x_{-}),}
  • P ( X [ x , y ] ) = P ( x X y ) = F X ( y ) F X ( x ) , {\displaystyle \mathbb {P} (X\in [x,y])\,=\,\mathbb {P} (x\leq X\leq y)\,=\,F_{X}(y)-F_{X}(x_{-}),}

et

  • P ( X = x ) = F X ( x ) F X ( x ) {\displaystyle \mathbb {P} (X=x)=F_{X}(x)-F_{X}(x_{-})\,}
Démonstration
  •   P ( X ] , x ] ) = P ( X x ) = F X ( x ) , {\displaystyle \ \mathbb {P} (X\in ]-\infty ,x])\,=\,\mathbb {P} (X\leq x)\,=\,F_{X}(x),} est la définition d'une fonction de répartition.
  • on obtient   P ( X ] x , + [ ) = P ( X > x ) = 1 F X ( x ) {\displaystyle \ \mathbb {P} (X\in ]x,+\infty [)\,=\,\mathbb {P} (X>x)\,=\,1-F_{X}(x)} par passage au complémentaire,
  • pour P ( X ] x , y ] ) = P ( x < X y ) = F X ( y ) F X ( x ) , {\displaystyle \mathbb {P} (X\in ]x,y])\,=\,\mathbb {P} (x<X\leq y)\,=\,F_{X}(y)-F_{X}(x),} on utilise { A B }     { P ( B A ) = P ( B ) P ( A ) } , {\displaystyle \{A\subset B\}\ \Rightarrow \ \{\mathbb {P} (B\setminus A)=\mathbb {P} (B)-\mathbb {P} (A)\},} pour A = ]–∞, x] et B = ]–∞, y],
  • La relation P ( X ] , x [ ) = P ( X < x ) = F X ( x ) , {\displaystyle \mathbb {P} (X\in ]-\infty ,x[)\,=\,\mathbb {P} (X<x)\,=\,F_{X}(x_{-}),} est la plus délicate et fait intervenir une conséquence des axiomes des probabilités sur la probabilité de l'union d'une suite croissante d'ensembles. On considère une suite (xn) de réels croissante, convergeant vers x. L'intervalle ]-∞, x[ est alors union dénombrable de la suite croissante d'intervalles ]-∞, xn]. La probabilité de l'intervalle ]-∞, x[ est donc la limite des probabilités des intervalles ]-∞, xn], i.e. la limite de la suite FX(xn). Par propriété des fonctions croissantes, cette limite existe et vaut FX(x).

Les 5 dernières propriétés découlent de { A B }     { P ( B A ) = P ( B ) P ( A ) } , {\displaystyle \{A\subset B\}\ \Rightarrow \ \{\mathbb {P} (B\setminus A)=\mathbb {P} (B)-\mathbb {P} (A)\},} pour différents choix de A et B :

  • P ( X ] x , y [ ) = P ( x < X < y ) = F X ( y ) F X ( x ) ,   pour   A = ] , x ] ,   B = ] , y [ , {\displaystyle \mathbb {P} (X\in ]x,y[)\,=\,\mathbb {P} (x<X<y)\,=\,F_{X}(y_{-})-F_{X}(x),\ {\textrm {pour}}\ A=]-\infty ,x],\quad \ B=]-\infty ,y[,}
  • P ( X [ x , y [ ) = P ( x X < y ) = F X ( y ) F X ( x ) ,   pour   A = ] , x [ ,   B = ] , y [ , {\displaystyle \mathbb {P} (X\in [x,y[)\,=\,\mathbb {P} (x\leq X<y)\,=\,F_{X}(y_{-})-F_{X}(x_{-}),\ {\textrm {pour}}\ A=]-\infty ,x[,\quad \ B=]-\infty ,y[,}
  • P ( X [ x , y ] ) = P ( x X y ) = F X ( y ) F X ( x ) ,   pour   A = ] , x [ ,   B = ] , y ] , {\displaystyle \mathbb {P} (X\in [x,y])\,=\,\mathbb {P} (x\leq X\leq y)\,=\,F_{X}(y)-F_{X}(x_{-}),\ {\textrm {pour}}\ A=]-\infty ,x[,\quad \ B=]-\infty ,y],}
  • P ( X = x ) = F X ( x ) F X ( x ) ,   pour   A = ] , x [ ,   B = ] , x ] . {\displaystyle \mathbb {P} (X=x)=F_{X}(x)-F_{X}(x_{-}),\ {\textrm {pour}}\ A=]-\infty ,x[,\quad \ B=]-\infty ,x].}

On appelle atome de la variable aléatoire X tout réel a pour lequel P ( X = a ) > 0 {\displaystyle \mathbb {P} (X=a)>0} . Ainsi, en vertu de la dernière propriété de la liste ci-dessus,

Propriété — Les atomes de la variable aléatoire X sont exactement les points de discontinuité de la fonction de répartition.

La fonction de répartition d'une variable aléatoire X est donc continue si et seulement si X n'a aucun atome, i.e. si et seulement si

x R ,   P ( X = x ) = 0. {\displaystyle \forall x\in \mathbb {R} ,\ \mathbb {P} (X=x)=0.}

On dit alors que la loi de X est diffuse, ou bien sans atome, et, par extension, que la variable aléatoire X elle-même est diffuse ou sans atome. En particulier, les variables aléatoires réelles possédant une densité de probabilité sont diffuses. Il existe cependant des variables aléatoires diffuses mais ne possédant pas pour autant une densité de probabilité, c'est le cas, par exemple, de la variable aléatoire ayant pour fonction de répartition l'escalier de Cantor.

Notons que l'ensemble des points de discontinuité de FX est fini ou dénombrable, comme c'est le cas pour toute fonction monotone bornée :

Conséquence — L'ensemble S des atomes de la variable aléatoire X est fini ou dénombrable.

Caractérisation de la loi par la fonction de répartition

Théorème — La loi de probabilité d'une variable aléatoire réelle est caractérisée par sa fonction de répartition.

Ou bien encore : si deux variables aléatoires réelles ont même fonction de répartition, alors elles ont même loi (et réciproquement).

Démonstration

Sous l'hypothèse FX = FY, on peut démontrer de manière élémentaire que P ( X A ) = P ( Y A ) , {\displaystyle \mathbb {P} (X\in A)=\mathbb {P} (Y\in A),} dès que A est un borélien "simple" (par exemple, si A est un intervalle). Par contre, la démonstration générale (pour tout borélien A) est un cas particulier du lemme d'unicité des probabilités, lui-même corollaire du lemme de classe monotone, appliqué à la classe

C = { ] , x ]   |   x R } . {\displaystyle {\mathcal {C}}=\left\{]-\infty ,x]\ |\ x\in \mathbb {R} \right\}.}

Il faut vérifier que

  1. la classe C {\displaystyle {\mathcal {C}}} est stable par intersection finie,
  2. la tribu engendrée par C {\displaystyle {\mathcal {C}}} contient (et en fait est égale à) la tribu borélienne.

Le lemme d'unicité des probabilités permet alors de conclure.

Vérifions 1. Soit I une partie finie de R {\displaystyle \mathbb {R} } . Soit y l'élément minimal de I. Alors

x I ] , x ] = ] , y ]     C . {\displaystyle \bigcap _{x\in I}]-\infty ,x]\,=\,]-\infty ,y]\ \in \ {\mathcal {C}}.}

Vérifions 2. La tribu engendrée par C {\displaystyle {\mathcal {C}}} est notée σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} . La tribu borélienne est notée B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} , comme souvent. Notons

D = { ] x , + [   |   x R } . {\displaystyle {\mathcal {D}}=\left\{]x,+\infty [\ |\ x\in \mathbb {R} \right\}.}

On a D σ ( C ) , {\displaystyle {\mathcal {D}}\subset \sigma ({\mathcal {C}}),} en vertu de la stabilité des tribus par passage au complémentaire, donc σ ( D ) σ ( C ) , {\displaystyle \sigma ({\mathcal {D}})\subset \sigma ({\mathcal {C}}),} par définition d'une tribu engendrée. On peut interchanger C {\displaystyle {\mathcal {C}}} et D {\displaystyle {\mathcal {D}}} dans ce qui précède, donc, par double inclusion,

σ ( C ) = σ ( D ) . {\displaystyle \sigma ({\mathcal {C}})=\sigma ({\mathcal {D}}).}

Comme D {\displaystyle {\mathcal {D}}} est une partie de l'ensemble des ouverts, on en déduit que

σ ( C ) = σ ( D )     B ( R ) . {\displaystyle \sigma ({\mathcal {C}})=\sigma ({\mathcal {D}})\ \subset \ {\mathcal {B}}(\mathbb {R} ).}

Mais il nous faut surtout démontrer l'inclusion en sens inverse, et, pour cela, démontrer que tout ouvert de R {\displaystyle \mathbb {R} } est dans σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} (ainsi σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} est une tribu contenant tous les ouverts de R {\displaystyle \mathbb {R} } , alors que B ( R ) {\displaystyle {\mathcal {B}}(\mathbb {R} )} est la plus petite tribu contenant tous les ouverts de R {\displaystyle \mathbb {R} } ). Un argument rapide est de constater que

  • tout ouvert de R {\displaystyle \mathbb {R} } est réunion dénombrable d'intervalles ouverts, et que
  • les intervalles ouverts sont dans σ ( C ) {\displaystyle \sigma ({\mathcal {C}})} .

Le premier point résulte de ce que

  • un ouvert O {\displaystyle {\mathcal {O}}} est réunion disjointe de ses composantes connexes (cela est vrai pour toute partie de R {\displaystyle \mathbb {R} } ),
  • les parties connexes de R , {\displaystyle \mathbb {R} ,} (et en particulier les composantes connexes ci-dessus) sont exactement les intervalles de R , {\displaystyle \mathbb {R} ,}
  • comme R {\displaystyle \mathbb {R} } est localement connexe, les composantes connexes d'un ouvert sont automatiquement ouvertes.
  • dans chaque composante connexe A de notre ouvert O {\displaystyle {\mathcal {O}}} , on peut choisir un nombre rationnel qA. Les qA sont distincts car les composantes sont disjointes. Ainsi AqA est une bijection entre la famille des composantes connexes de O {\displaystyle {\mathcal {O}}} et une partie de Q . {\displaystyle \mathbb {Q} .} La famille des composantes connexes de O {\displaystyle {\mathcal {O}}} est donc finie ou dénombrable.

Le deuxième point tient à ce que

  • x R , ] x , + [     σ ( C ) , {\displaystyle \forall x\in \mathbb {R} ,\qquad ]x,+\infty [\ \in \ \sigma ({\mathcal {C}}),} comme on l'a vu plus haut ;
  • y R , ] , y [   =   n 1   ] , y 1 n ]     σ ( C ) {\displaystyle \forall y\in \mathbb {R} ,\qquad ]-\infty ,y[\ =\ \bigcup _{n\geq 1}\ \left]-\infty ,y-{\tfrac {1}{n}}\right]\ \in \ \sigma ({\mathcal {C}})}  ;
  • x < y   R , ] x , y [   =   ] , y [ ] x , + [     σ ( C ) . {\displaystyle \forall x<y\,\in \ \mathbb {R} ,\qquad ]x,y[\ =\ ]-\infty ,y[\,\cap \,]x,+\infty [\ \in \ \sigma ({\mathcal {C}}).}

CQFD

En d'autres termes, si deux variables aléatoires réelles, X et Y, vérifient

x R , P ( X x ) = P ( Y x ) , {\displaystyle \forall x\in \mathbb {R} ,\qquad \mathbb {P} (X\leq x)=\mathbb {P} (Y\leq x),}

alors elles vérifient aussi que pour tout borélien A,

P ( X A ) = P ( Y A ) . {\displaystyle \mathbb {P} (X\in A)=\mathbb {P} (Y\in A).}

De plus, elles vérifient que pour toute fonction mesurable φ,

E [ φ ( X ) ] = E [ φ ( Y ) ] , {\displaystyle \mathbb {E} [\varphi (X)]=\mathbb {E} [\varphi (Y)],}

dès que l'un des deux termes de l'égalité a un sens.

Théorème de la réciproque

Soit F une fonction de R {\displaystyle \mathbb {R} } dans R {\displaystyle \mathbb {R} } satisfaisant les 4 propriétés caractéristiques. Notons G la fonction définie pour ω ∈ ]0, 1[ par

G ( ω ) = inf { x R   |   F ( x ) ω } . {\displaystyle G(\omega )=\inf \left\{x\in \mathbb {R} \ |\ F(x)\geq \omega \right\}.}

Alors G est une variable aléatoire réelle définie sur l'espace probabilisé ( Ω , A , P ) {\displaystyle \left(\Omega ,{\mathcal {A}},\mathbb {P} \right)} ( Ω , A ) = ( ] 0 , 1 [ , B ( ] 0 , 1 [ ) ) {\displaystyle \left(\Omega ,{\mathcal {A}}\right)=\left(]0,1[,{\mathcal {B}}(]0,1[)\right)} et où P {\displaystyle \mathbb {P} } désigne la restriction à B ( ] 0 , 1 [ ) {\displaystyle {\mathcal {B}}(]0,1[)} de la mesure de Lebesgue sur R {\displaystyle \mathbb {R} } . Le théorème stipule que :

Théorème — Sur l'espace ( Ω , A , P ) {\displaystyle \left(\Omega ,{\mathcal {A}},\mathbb {P} \right)} , la fonction de répartition de G est F.

Ainsi toute fonction F de R {\displaystyle \mathbb {R} } dans R {\displaystyle \mathbb {R} } satisfaisant les quatre propriétés caractéristiques est fonction de répartition d'une variable aléatoire réelle (de G, par exemple), ou encore d'une mesure de probabilité sur ( R , B ( R ) ) {\displaystyle \left(\mathbb {R} ,{\mathcal {B}}(\mathbb {R} )\right)} (de la loi de G, par exemple).

Démonstration

Pour ω ∈ Ω = ]0, 1[, notons

A ω = { x R   |   F ( x ) ω } . {\displaystyle A_{\omega }=\left\{x\in \mathbb {R} \ |\ F(x)\geq \omega \right\}.}

Donc G(ω) = inf Aω. À cause du point 4, A ω {\displaystyle A_{\omega }\neq \emptyset } , et à cause du point 3, Aω est bornée inférieurement, donc G est bien définie.

Commençons par un cas simple à titre d'entrainement :

F est continue strictement croissante

Si F est continue strictement croissante sur R {\displaystyle \mathbb {R} } , alors F est une bijection de R {\displaystyle \mathbb {R} } dans ]0, 1[, et G est la réciproque de F (on peut s'en convaincre en traçant Aω à l'aide du graphe de F). À ce titre, G est continue et strictement croissante sur ]0, 1[, et en particulier G est mesurable (c'est donc une v.a.r.). On a, de plus,

{ G ( ω ) x } { ω F ( x ) } , {\displaystyle \left\{G(\omega )\leq x\right\}\Leftrightarrow \left\{\omega \leq F(x)\right\},}

donc

{ ω Ω   |   G ( ω ) x } = { ω Ω   |   ω F ( x ) } = ] 0 , F ( x ) ] . {\displaystyle {\begin{aligned}\left\{\omega \in \Omega \ |\ G(\omega )\leq x\right\}&=\left\{\omega \in \Omega \ |\ \omega \leq F(x)\right\}\\&=]0,F(x)].\end{aligned}}}

Ainsi

P ( G x ) = P ( ] 0 , F ( x ) ] ) = F ( x ) . {\displaystyle \mathbb {P} \left(G\leq x\right)=\mathbb {P} (]0,F(x)])=F(x).}
Cas général

Dans le cas général, on a également

{ G ( ω ) x } { ω F ( x ) } , {\displaystyle \left\{G(\omega )\leq x\right\}\Leftrightarrow \left\{\omega \leq F(x)\right\},}

et on conclut donc exactement de la même manière que précédemment, mais la démonstration de l'équivalence ci-dessus est moins directe. Tout d'abord, pour ωω', Aω'Aω, et donc G(ω) ≤ G(ω'). Du fait que G est monotone, il résulte que G est mesurable.

On a, par définition de Aω et de G(ω),

{ ω F ( x ) } { x A ω } { G ( ω ) x } . {\displaystyle \left\{\omega \leq F(x)\right\}\Rightarrow \left\{x\in A_{\omega }\right\}\Rightarrow \left\{G(\omega )\leq x\right\}.}

La réciproque vient de ce que {G(ω) ∈ Aω}, i.e. {ωF(G(ω))}, ce qui, avec {G(ω) ≤ x} entraîne, par croissance de F, {F(G(ω)) ≤ F(x)} , et finalement {ωF(x)} . Supposons en effet que G(ω) ∉ Aω, et considérons une suite strictement décroissante (xn)n ≠ 0 d'éléments de Aω telle que

lim n x n   =   inf A ω   ( =   G ( ω ) ) . {\displaystyle \lim _{n}x_{n}\ =\ \inf A_{\omega }\ \left(=\ G(\omega )\right).}

Par continuité à droite de F,

lim n F ( x n ) = F ( G ( ω ) ) , {\displaystyle \lim _{n}F(x_{n})=F(G(\omega )),}

mais également, par définition de Aω,

lim n F ( x n ) ω , {\displaystyle \lim _{n}F(x_{n})\geq \omega ,}

ce qui conduit à G(ω) ∈ Aω, d'où une contradiction (démonstration largement reprise de Sidney Resnick, A Probability Path).

Remarques.

  • Lorsque F est une bijection bicontinue d'un intervalle I dans ]0, 1[ (i.e. F est continue strictement croissante), G est tout simplement la réciproque de F (i.e. GF = IdI et FG = Id]0, 1[). Pour cette raison, G est parfois appelée réciproque généralisée de F.
  • G est aussi appelée fonction quantile.
  • L'intérêt pratique de ce théorème est développé dans l'article Méthode de la transformée inverse, ainsi que dans la section suivante.

Conséquences du théorème de la réciproque

Simulation de variables aléatoires réelles de loi arbitraire

Si U désigne une variable aléatoire réelle uniforme sur [0, 1], alors X = G(U) a pour fonction de répartition F.

Ainsi dans tout langage de programmation possédant un générateur de nombres aléatoires, on peut simuler une suite de longueur arbitraire de v.a.r. indépendantes de même fonction de répartition F, pourvu que G soit connue : il suffit alors d'appeler ce générateur de manière répétée, et d'appliquer la fonction G aux nombres produits par ces appels répétés.

Exemples

Exemples
densité de probabilité fonction de répartition réciproque (généralisée) code
Loi de Cauchy 1 π ( 1 + x 2 ) {\displaystyle {\frac {1}{\pi (1+x^{2})}}} F ( x ) = 1 π ( π 2 + arctan ( x ) ) {\displaystyle F(x)={\frac {1}{\pi }}\left({\frac {\pi }{2}}+\arctan(x)\right)} G ( ω ) = tan ( π ( ω 1 2 ) ) {\displaystyle G(\omega )=\tan \left(\pi (\omega -{\frac {1}{2}})\right)} x tan ( π ( r a n d ( ) 1 2 ) ) {\displaystyle x\leftarrow \tan \left(\pi (\mathrm {rand()} -{\frac {1}{2}})\right)}
Loi exponentielle λ e λ x   1 x 0 {\displaystyle \lambda \,e^{-\lambda x}\ 1_{x\geq 0}} F ( x ) = ( 1 e λ x )   1 x 0 {\displaystyle F(x)=\left(1-e^{-\lambda x}\right)\ 1_{x\geq 0}} G ( ω ) = 1 λ   ln ( 1 ω ) {\displaystyle G(\omega )=-{\frac {1}{\lambda }}\ \ln(1-\omega )} x   1 λ   ln ( r a n d ( ) ) {\displaystyle x\leftarrow \ -{\frac {1}{\lambda }}\ \ln(\mathrm {rand()} )}
Loi uniforme sur [a, b] 1 b a   1 [ a , b ] ( x ) {\displaystyle {\frac {1}{b-a}}\ 1_{[a,b]}(x)} F ( x ) = x a b a   1 [ a , b ] ( x )   +   1 ] b , + [ ( x ) {\displaystyle F(x)={\frac {x-a}{b-a}}\ 1_{[a,b]}(x)\ +\ 1_{]b,+\infty [}(x)} G ( ω ) = a + ω ( b a ) {\displaystyle G(\omega )=a+\omega (b-a)} x a + ( b a ) r a n d ( ) {\displaystyle x\leftarrow a+(b-a)\mathrm {rand()} }
Loi de Bernoulli F ( x ) = ( 1 p )   1 [ 0 , 1 [ ( x )   +   1 [ 1 , + [ ( x ) {\displaystyle F(x)=(1-p)\ 1_{[0,1[}(x)\ +\ 1_{[1,+\infty [}(x)} G ( ω ) = p + ω {\displaystyle G(\omega )=\lfloor p+\omega \rfloor } x p +   r a n d ( ) {\displaystyle x\leftarrow \lfloor p+\ \mathrm {rand()} \rfloor }
Loi uniforme sur {1, 2, ... , n} F ( x ) = x n   1 [ 0 , n ] ( x )   +   1 ] n , + [ ( x ) {\displaystyle F(x)={\frac {\lfloor x\rfloor }{n}}\ 1_{[0,n]}(x)\ +\ 1_{]n,+\infty [}(x)} G ( ω ) = n ω {\displaystyle G(\omega )=\lceil n\omega \rceil } x n   r a n d ( ) {\displaystyle x\leftarrow \lceil n\ \mathrm {rand()} \rceil }
Loi normale, Loi binomiale comme il n'y a pas de formule suffisamment explicite pour la fonction de répartition, et encore moins de formule explicite pour la réciproque de cette dernière, le théorème est alors inopérant.

La loi normale peut cependant être simulée, par la méthode de Box-Muller, à l'aide de deux variables aléatoires indépendantes suivant chacune une loi uniforme : si U , V U ( [ 0 , 1 ] ) {\displaystyle U,V\sim {\mathcal {U}}([0,1])} de manière indépendante alors 2 ln ( U ) cos ( 2 π V ) {\displaystyle {\sqrt {-2\ln(U)}}\cos(2\pi V)} suit une loi normale centrée réduite. L'établissement de ce résultat fait également appel au théorème de la réciproque.

On trouvera tout sur l'art d'engendrer des variables aléatoires de lois arbitraires, par exemple à l'aide de variables uniformes, dans Non-Uniform Random Variate Generation, édité chez Springer, disponible sur le web[1].

Autres conséquences du théorème de la réciproque

La réciproque généralisée de F est un exemple de v.a.r. dont la fonction de répartition est F, mais c'est un exemple privilégié. Ses utilisations sont nombreuses, allant de propriétés de l'ordre stochastique, à des propriétés de la distance de Wasserstein[2], en passant par le théorème de représentation de Skorokhod, voir section suivante.

Convergence en loi et fonction de répartition

Considérons une suite de variables aléatoires (Xn)n ≥ 0 (resp. une variable aléatoire X) définies sur des espaces probabilisés ( Ω n , A n , P n ) {\displaystyle \left(\Omega _{n},{\mathcal {A}}_{n},\mathbb {P} _{n}\right)} (resp. ( Ω , A , P ) {\displaystyle \left(\Omega ,{\mathcal {A}},\mathbb {P} \right)} ) éventuellement différents, mais toutes à valeurs dans le même espace métrique (S, d). On dit que (Xn)n ≥ 0 converge en loi vers X si, pour toute fonction continue bornée de (S,d) dans R {\displaystyle \mathbb {R} } ,

lim n E [ f ( X n ) ] = E [ f ( X ) ] . {\displaystyle \lim _{n\rightarrow \infty }\mathbb {E} \left[f(X_{n})\right]=\mathbb {E} \left[f(X)\right].}

On a le théorème suivant :

Théorème —  Dans le cas de variables aléatoires réelles ( S = R {\displaystyle S=\mathbb {R} } ), notons (Fn)n ≥ 0, F les fonctions de répartitions de (Xn)n ≥ 0 et de X. Il y a alors équivalence entre les trois propositions ci-dessous :

  1. (Xn)n ≥ 0 converge en loi vers X,
  2. pour tout réel x en lequel F est continue, lim n F n ( x ) = F ( x ) {\displaystyle \lim _{n\rightarrow \infty }F_{n}(x)=F(x)} ,
  3. il existe un espace probabilisé ( Ω ^ , A ^ , P ^ ) {\displaystyle \left({\widehat {\Omega }},{\widehat {\mathcal {A}}},{\widehat {\mathbb {P} }}\right)} , et, définies sur cet espace, des variables aléatoires réelles (X'n)n ≥ 0 et X' telles que, simultanément,
    1. X' a même loi que X,
    2. pour chaque n, Xn' a même loi que Xn,
    3. (X'n)n ≥ 0 converge presque sûrement vers X'.

L'implication 1.⇒3. reste vraie lorsque les variables aléatoires réelles sont remplacées par des variables aléatoires à valeurs dans un espace de Lusin (S , d), i.e. un espace métrisable assez général ( S = R d {\displaystyle S=\mathbb {R} ^{d}} et S = C ( [ 0 , 1 ] , R ) {\displaystyle S={\mathcal {C}}([0,1],\mathbb {R} )} en sont des exemples). L'implication 1.⇒3. porte alors le nom de théorème de représentation de Skorokhod.

Démonstration

Une structure possible pour la démonstration est 3.⇒1.⇒2.⇒3.

3. implique 1.

C'est le plus simple. Il faut démontrer que

lim n E [ f ( X n ) ] = E [ f ( X ) ] , {\displaystyle \lim _{n\rightarrow \infty }\mathbb {E} \left[f(X_{n})\right]=\mathbb {E} \left[f(X)\right],}

ou bien, équivalemment,

lim n E [ f ( X n ) ] = E [ f ( X ) ] . {\displaystyle \lim _{n\rightarrow \infty }\mathbb {E} \left[f(X_{n}^{\prime })\right]=\mathbb {E} \left[f(X^{\prime })\right].}

Mais la continuité de f assure que f(Xn') converge presque sûrement vers f(X'). De plus, |f| étant borné, on a que

| f ( X n ) |   f {\displaystyle \left|f(X_{n}^{\prime })\right|\ \leq \Vert f\Vert _{\infty }}

pour tout n. Le théorème de convergence dominée de Lebesgue peut donc être appliqué ici, et donne la conclusion voulue.

1. implique 2.
Fonction φa , b.

On utilise la famille de fonctions continues bornées ( φ a , b ) ( a , b ) R 2 ,   a < b {\displaystyle \left(\varphi _{a,b}\right)_{(a,b)\in \mathbb {R} ^{2},\ a<b}} définies par le graphe ci-contre. Elles vérifient, pour toute variable aléatoire réelle Y,

P ( Y a ) E [ φ a , b ( Y ) ] P ( Y b ) , {\displaystyle \mathbb {P} \left(Y\leq a\right)\leq \mathbb {E} \left[\varphi _{a,b}(Y)\right]\leq \mathbb {P} \left(Y\leq b\right),}

et en particulier

E [ φ x ε , x ( X n ) ] F n ( x ) E [ φ x , x + ε ( X n ) ] . {\displaystyle \mathbb {E} \left[\varphi _{x-\varepsilon ,x}(X_{n})\right]\leq F_{n}(x)\leq \mathbb {E} \left[\varphi _{x,x+\varepsilon }(X_{n})\right].}

On remarque alors que, pour tout ε > 0,

lim sup n F n ( x ) lim n E [ φ x , x + ε ( X n ) ] = E [ φ x , x + ε ( X ) ] P ( X x + ε ) = F ( x + ε ) , {\displaystyle {\begin{aligned}\limsup _{n}F_{n}(x)&\leq \lim _{n}\mathbb {E} \left[\varphi _{x,x+\varepsilon }(X_{n})\right]\\&=\mathbb {E} \left[\varphi _{x,x+\varepsilon }(X)\right]\leq \mathbb {P} \left(X\leq x+\varepsilon \right)=F(x+\varepsilon ),\end{aligned}}}

et

lim inf n F n ( x ) lim n E [ φ x ε , x ( X n ) ] = E [ φ x ε , x ( X ) ] P ( X x ε ) = F ( x ε ) . {\displaystyle {\begin{aligned}\liminf _{n}F_{n}(x)&\geq \lim _{n}\mathbb {E} \left[\varphi _{x-\varepsilon ,x}(X_{n})\right]\\&=\mathbb {E} \left[\varphi _{x-\varepsilon ,x}(X)\right]\geq \mathbb {P} \left(X\leq x-\varepsilon \right)=F(x-\varepsilon ).\end{aligned}}}

En faisant tendre ε vers 0, on obtient

F ( x ) lim inf n F n ( x ) lim sup n F n ( x ) F ( x ) . {\displaystyle F(x_{-})\leq \liminf _{n\rightarrow \infty }F_{n}(x)\leq \limsup _{n\rightarrow \infty }F_{n}(x)\leq F(x).}

Ainsi, dès que x est un point de continuité de F,

lim n F n ( x ) = F ( x ) , CQFD. {\displaystyle \lim _{n\rightarrow \infty }F_{n}(x)=F(x),\qquad {\textrm {CQFD.}}}
2. implique 3.

Notons (Gn)n ≥ 0, G, les réciproques généralisées de (Fn)n ≥ 0, F. Pour le triplet ( Ω ^ , A ^ , P ^ ) {\displaystyle \left({\widehat {\Omega }},{\widehat {\mathcal {A}}},{\widehat {\mathbb {P} }}\right)} , choisissons Ω ^ = ] 0 , 1 [ {\displaystyle {\widehat {\Omega }}=]0,1[} , et prenons pour ( A ^ , P ^ ) {\displaystyle \left({\widehat {\mathcal {A}}},{\widehat {\mathbb {P} }}\right)} la tribu des boréliens et la mesure de Lebesgue correspondantes (i.e. restreintes à ]0, 1[). Le choix de X'n = Gn, X' = G satisfait à 3.1. et à 3.2. en vertu du théorème de la réciproque. De plus, en conséquence de 2., (Gn)n ≥ 0 converge presque sûrement vers G.

Notes et références

  1. La version pdf (libre et autorisée) de (en) Luc Devroye, Non-Uniform Random Variate Generation, New York, Springer-Verlag, , 1re éd. (lire en ligne) est disponible, ainsi qu'un récit humoristique des démêlés de Luc Devroye avec son éditeur.
  2. [1]

Voir aussi

Articles connexes

  • icône décorative Portail des probabilités et de la statistique