Loi enveloppée

En théorie des probabilités et dans les statistiques directionnelles, une loi de probabilité enveloppée est une loi de probabilité continue qui décrit les points de données qui se trouvent sur une n -sphère unitaire. En une dimension, une distribution enveloppée est constituée de points sur le cercle unité. Si ϕ {\displaystyle \phi } est une variable aléatoire sur la droite réelle avec pour fonction de densité de probabilité p ( ϕ ) {\displaystyle p(\phi )} , alors z = e i ϕ {\displaystyle z=\mathrm {e} ^{\mathrm {i} \phi }} est une variable circulaire suivant la loi enveloppée p w ( θ ) {\displaystyle p_{w}(\theta )} et θ = arg ( z ) {\displaystyle \theta =\arg(z)} est une variable angulaire dans l'intervalle ( π , π ] {\displaystyle (-\pi ,\pi ]} suivant la loi enveloppée p w ( θ ) {\displaystyle p_{w}(\theta )} .

Toute fonction de densité de probabilité p ( ϕ ) {\displaystyle p(\phi )} sur la droite peut être "enveloppée" autour de la circonférence d'un cercle de rayon unité[1]. Ainsi, la densité de la variable enveloppée

θ = ϕ mod 2 π {\displaystyle \theta =\phi \mod 2\pi } sur un intervalle de longueur 2 π {\displaystyle 2\pi }

est

p w ( θ ) = k = p ( θ + 2 π k ) {\displaystyle p_{w}(\theta )=\sum _{k=-\infty }^{\infty }{p(\theta +2\pi k)}}

qui est une somme périodique (en) de période 2 π {\displaystyle 2\pi } . On préfère généralement l'intervalle ( π < θ π ) {\displaystyle (-\pi <\theta \leq \pi )} sur lequel on a ln ( e i θ ) = arg ( e i θ ) = θ {\displaystyle \ln(\mathrm {e} ^{\mathrm {i} \theta })=\arg(\mathrm {e} ^{\mathrm {i} \theta })=\theta } .

Théorie

Dans la plupart des situations, un processus impliquant des statistiques circulaires produit des angles ( ϕ {\displaystyle \phi } ) qui se situent dans l'intervalle ( , ) {\displaystyle (-\infty ,\infty )} , et sont décrits par une fonction de densité de probabilité « non enveloppée » p ( ϕ ) {\displaystyle p(\phi )} . Cependant, une mesure donnera un angle θ {\displaystyle \theta } qui se situe dans un intervalle de longueur 2 π {\displaystyle 2\pi } (par exemple, ] 0 , 2 π ] {\displaystyle ]0,2\pi ]} ). En d’autres termes, une mesure ne peut pas dire si l’angle réel ϕ {\displaystyle \phi } ou un angle enveloppé θ = ϕ + 2 π a {\displaystyle \theta =\phi +2\pi a} , où a {\displaystyle a} est un entier inconnu, a été mesuré.

Si on souhaite calculer l'espérance d’une fonction de l’angle mesuré, ce sera :

f ( θ ) = p ( ϕ ) f ( ϕ + 2 π a ) d ϕ {\displaystyle \langle f(\theta )\rangle =\int _{-\infty }^{\infty }p(\phi )f(\phi +2\pi a)\mathrm {d} \phi } .

On peut exprimer l'intégrale comme une somme d'intégrales sur des périodes de 2 π {\displaystyle 2\pi }  :

f ( θ ) = k = 2 π k 2 π ( k + 1 ) p ( ϕ ) f ( ϕ + 2 π a ) d ϕ {\displaystyle \langle f(\theta )\rangle =\sum _{k=-\infty }^{\infty }\int _{2\pi k}^{2\pi (k+1)}p(\phi )f(\phi +2\pi a)\mathrm {d} \phi } .

En changeant la variable d'intégration en θ = ϕ 2 π k {\displaystyle \theta '=\phi -2\pi k} et en échangeant l'ordre d'intégration et de sommation, on a :

f ( θ ) = 0 2 π p w ( θ ) f ( θ + 2 π a ) d θ {\displaystyle \langle f(\theta )\rangle =\int _{0}^{2\pi }p_{w}(\theta ')f(\theta '+2\pi a')\mathrm {d} \theta '}

p w ( θ ) {\displaystyle p_{w}(\theta ')} est la fonction de densité de la loi enveloppée et a {\displaystyle a'} est un autre entier inconnu ( a = a + k ) {\displaystyle (a'=a+k)} . L'entier inconnu a {\displaystyle a'} introduit une ambiguïté dans l'espérance de f ( θ ) {\displaystyle f(\theta )} , similaire au problème du calcul de la moyenne angulaire (en). Ceci peut être résolu en introduisant le paramètre z = e i θ {\displaystyle z=\mathrm {e} ^{\mathrm {i} \theta }} , dans la mesure où z {\displaystyle z} a une relation sans ambiguïté avec le véritable angle ϕ {\displaystyle \phi }  :

z = e i θ = e i ϕ . {\displaystyle z=\mathrm {e} ^{\mathrm {i} \theta }=\mathrm {e} ^{\mathrm {i} \phi }.}

Calculer l'espérance d'une fonction de z {\displaystyle z} donne des réponses sans ambiguïté :

f ( z ) = 0 2 π p w ( θ ) f ( e i θ ) d θ . {\displaystyle \langle f(z)\rangle =\int _{0}^{2\pi }p_{w}(\theta ')f(\mathrm {e} ^{\mathrm {i} \theta '})\mathrm {d} \theta '.}

Pour cette raison, le paramètre z {\displaystyle z} est préféré aux angles mesurés θ {\displaystyle \theta } dans l’analyse statistique circulaire. Cela suggère que la fonction de distribution enveloppée peut elle-même être exprimée en fonction de z {\displaystyle z} par :

f ( z ) = p w ~ ( z ) f ( z ) d z {\displaystyle \langle f(z)\rangle =\oint {\tilde {p_{w}}}(z)f(z)\,\mathrm {d} z}

p w ~ ( z ) {\displaystyle {\tilde {p_{w}}}(z)} est défini de telle sorte que p w ( θ ) | d θ | = p w ~ ( z ) | d z | {\displaystyle p_{w}(\theta )\,|\mathrm {d} \theta |={\tilde {p_{w}}}(z)\,|\mathrm {d} z|} . Ce concept peut être étendu au contexte multivarié par une extension de la somme simple à un certain nombre de F {\displaystyle F} sommes qui couvrent toutes les dimensions de l'espace des fonctionnalités :

p w ( θ ) = k 1 , . . . , k F = p ( θ + 2 π k 1 e 1 + + 2 π k F e F ) {\displaystyle p_{w}({\vec {\theta }})=\sum _{k_{1},...,k_{F}=-\infty }^{\infty }{p({\vec {\theta }}+2\pi k_{1}\mathbf {e} _{1}+\dots +2\pi k_{F}\mathbf {e} _{F})}}

e k = ( 0 , , 0 , 1 , 0 , , 0 ) T {\displaystyle \mathbf {e} _{k}=(0,\dots ,0,1,0,\dots ,0)^{\mathsf {T}}} est le k {\displaystyle k} e vecteur de base euclidienne.

Expression en termes de fonctions caractéristiques

Une distribution enveloppée fondamentale est le peigne de Dirac, qui est une fonction delta de Dirac enveloppée :

Δ 2 π ( θ ) = k = δ ( θ + 2 π k ) . {\displaystyle \Delta _{2\pi }(\theta )=\sum _{k=-\infty }^{\infty }{\delta (\theta +2\pi k)}.}

En utilisant la fonction delta, une distribution générale enveloppée peut être écrite

p w ( θ ) = k = p ( θ ) δ ( θ θ + 2 π k ) d θ . {\displaystyle p_{w}(\theta )=\sum _{k=-\infty }^{\infty }\int _{-\infty }^{\infty }p(\theta ')\delta (\theta -\theta '+2\pi k)\,\mathrm {d} \theta '.}

En échangeant l'ordre de sommation et d'intégration, toute distribution enveloppée peut être écrite comme la convolution de la distribution non enveloppée et d'un peigne de Dirac :

p w ( θ ) = p ( θ ) Δ 2 π ( θ θ ) d θ . {\displaystyle p_{w}(\theta )=\int _{-\infty }^{\infty }p(\theta ')\Delta _{2\pi }(\theta -\theta ')\,\mathrm {d} \theta '.}

Le peigne de Dirac peut également être exprimé comme une somme d’exponentielles, on peut donc écrire :

p w ( θ ) = 1 2 π p ( θ ) n = e i n ( θ θ ) d θ . {\displaystyle p_{w}(\theta )={\frac {1}{2\pi }}\,\int _{-\infty }^{\infty }p(\theta ')\sum _{n=-\infty }^{\infty }\mathrm {e} ^{\mathrm {i} n(\theta -\theta ')}\,\mathrm {d} \theta '.}

En échangeant à nouveau l'ordre de sommation et d'intégration :

p w ( θ ) = 1 2 π n = p ( θ ) e i n ( θ θ ) d θ . {\displaystyle p_{w}(\theta )={\frac {1}{2\pi }}\,\sum _{n=-\infty }^{\infty }\int _{-\infty }^{\infty }p(\theta ')\mathrm {e} ^{\mathrm {i} n(\theta -\theta ')}\,\mathrm {d} \theta '.}

En utilisant la définition de ϕ ( s ) {\displaystyle \phi (s)} , la fonction caractéristique de p ( θ ) {\displaystyle p(\theta )} , on obtient une série de Laurent autour de zéro pour la distribution enveloppée en termes de fonction caractéristique de la distribution non enveloppée :

p w ( θ ) = 1 2 π n = ϕ ( n ) e i n θ {\displaystyle p_{w}(\theta )={\frac {1}{2\pi }}\,\sum _{n=-\infty }^{\infty }\phi (n)\,\mathrm {e} ^{-\mathrm {i} n\theta }}

ou

p w ~ ( z ) = 1 2 π n = ϕ ( n ) z n {\displaystyle {\tilde {p_{w}}}(z)={\frac {1}{2\pi }}\,\sum _{n=-\infty }^{\infty }\phi (n)\,z^{-n}}

De manière analogue aux distributions linéaires, ϕ ( m ) {\displaystyle \phi (m)} est appelée la fonction caractéristique de la distribution enveloppée (ou plus précisément, la suite caractéristique)[2]. Il s'agit d'un exemple de la formule de sommation de Poisson, et on peut voir que les coefficients de la série de Fourier pour la distribution enveloppée sont simplement les coefficients de la transformée de Fourier de la distribution non enveloppée à des valeurs entières.

Moments

Les moments de la distribution enveloppée p w ( z ) {\displaystyle p_{w}(z)} sont définis comme :

z m = p w z ( z ) z m d z {\displaystyle \langle z^{m}\rangle =\oint p_{wz}(z)z^{m}\,\mathrm {d} z} .

En exprimant p w ( z ) {\displaystyle p_{w}(z)} en termes de fonction caractéristique et en échangeant l'ordre d'intégration et de sommation, on obtient :

z m = 1 2 π n = ϕ ( n ) z m n d z {\displaystyle \langle z^{m}\rangle ={\frac {1}{2\pi }}\sum _{n=-\infty }^{\infty }\phi (n)\oint z^{m-n}\,\mathrm {d} z} .

Par le théorème des résidus on en déduit

z m n d z = 2 π δ m n {\displaystyle \oint z^{m-n}\,\mathrm {d} z=2\pi \delta _{m-n}}

δ k {\displaystyle \delta _{k}} est la fonction delta de Kronecker. Il s'ensuit que les moments sont simplement égaux à la fonction caractéristique de la distribution non enveloppée pour les arguments entiers :

z m = ϕ ( m ) {\displaystyle \langle z^{m}\rangle =\phi (m)} .

Génération de variables aléatoires

Si X {\displaystyle X} est une variable aléatoire tirée d'une loi de probabilité linéaire P {\displaystyle P} , alors Z = e i X {\displaystyle Z=\mathrm {e} ^{\mathrm {i} X}} est une variable circulaire distribuée selon la loi enveloppé P {\displaystyle P} , et θ = arg ( Z ) {\displaystyle \theta =\arg(Z)} est la variable angulaire distribuée selon la loi enveloppée P {\displaystyle P} , avec π < θ π {\displaystyle -\pi <\theta \leq \pi } .

Entropie

L'entropie informationnelle d'une distribution circulaire avec densité de probabilité p w ( θ ) {\displaystyle p_{w}(\theta )} est définie comme:

H = Γ p w ( θ ) ln ( p w ( θ ) ) d θ {\displaystyle H=-\int _{\Gamma }p_{w}(\theta )\,\ln(p_{w}(\theta ))\,\mathrm {d} \theta }

Γ {\displaystyle \Gamma } est un intervalle de longueur 2 π {\displaystyle 2\pi } [1]. Si la densité de probabilité et son logarithme peuvent être exprimés sous forme de série de Fourier (ou plus généralement, par n'importe quelle transformée intégrale sur le cercle), la base orthogonale (en) de la série peut être utilisée pour obtenir une expression sous forme fermée de l'entropie.

Les moments de la loi ϕ ( n ) {\displaystyle \phi (n)} sont les coefficients de Fourier du développement en série de Fourier de la densité de probabilité :

p w ( θ ) = 1 2 π n = ϕ n e i n θ . {\displaystyle p_{w}(\theta )={\frac {1}{2\pi }}\sum _{n=-\infty }^{\infty }\phi _{n}\mathrm {e} ^{-\mathrm {i} n\theta }.}

Si le logarithme de la densité de probabilité peut également être exprimé sous forme de série de Fourier :

ln ( p w ( θ ) ) = m = c m e i m θ {\displaystyle \ln(p_{w}(\theta ))=\sum _{m=-\infty }^{\infty }c_{m}\mathrm {e} ^{\mathrm {i} m\theta }}

c m = 1 2 π Γ ln ( p w ( θ ) ) e i m θ d θ . {\displaystyle c_{m}={\frac {1}{2\pi }}\int _{\Gamma }\ln(p_{w}(\theta ))\mathrm {e} ^{-\mathrm {i} m\theta }\,\mathrm {d} \theta .}

Ensuite, en échangeant l’ordre d’intégration et de sommation, l’entropie peut s’écrire :

H = 1 2 π m = n = c m ϕ n Γ e i ( m n ) θ d θ . {\displaystyle H=-{\frac {1}{2\pi }}\sum _{m=-\infty }^{\infty }\sum _{n=-\infty }^{\infty }c_{m}\phi _{n}\int _{\Gamma }\mathrm {e} ^{\mathrm {i} (m-n)\theta }\,\mathrm {d} \theta .}

En utilisant l'orthogonalité de la base de Fourier, l'intégrale peut être réduite à :

H = n = c n ϕ n . {\displaystyle H=-\sum _{n=-\infty }^{\infty }c_{n}\phi _{n}.}

Pour le cas particulier où la densité de probabilité est symétrique par rapport à la moyenne, c m = c m {\displaystyle c_{-m}=c_{m}} et le logarithme peut s'écrire :

ln ( p w ( θ ) ) = c 0 + 2 m = 1 c m cos ( m θ ) {\displaystyle \ln(p_{w}(\theta ))=c_{0}+2\sum _{m=1}^{\infty }c_{m}\cos(m\theta )}

et

c m = 1 2 π Γ ln ( p w ( θ ) ) cos ( m θ ) d θ {\displaystyle c_{m}={\frac {1}{2\pi }}\int _{\Gamma }\ln(p_{w}(\theta ))\cos(m\theta )\,\mathrm {d} \theta }

et, puisque la normalisation exige que ϕ 0 = 1 {\displaystyle \phi _{0}=1} , l'entropie peut s'écrire :

H = c 0 2 n = 1 c n ϕ n . {\displaystyle H=-c_{0}-2\sum _{n=1}^{\infty }c_{n}\phi _{n}.}

Voir également

  • Loi normale enveloppée (en)
  • Loi de Cauchy enveloppée (en)
  • Loi exponentielle enveloppée (en)

Références

  • (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Wrapped distribution » (voir la liste des auteurs).
  1. a et b Kantilal Mardia et Jupp, Peter E., Directional Statistics, Wiley, (ISBN 978-0-471-95333-3, lire en ligne)
  2. K. Mardia, Statistics of Directional Data, New York, Academic press, (lire en ligne)
  • Graham Borradaile, Statistics of Earth Science Data, Springer, (ISBN 978-3-540-43603-4, lire en ligne)
  • N. I. Fisher, Statistical Analysis of Circular Data, Cambridge University Press, (ISBN 978-0-521-56890-6, lire en ligne)
  • (en) Circular Values Math and Statistics with C++11, Une infrastructure C++11 pour les mathématiques et les statistiques des valeurs circulaires (angles, heure de la journée, etc.)
v · m
Lois discrètes
à support fini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
Lois absolument continues
à support compact
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
à support semi-infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
3 paramètres de forme
N paramètres de forme
à support infini
0 paramètre de forme
1 paramètre de forme
2 paramètres de forme
Autres types de lois
Lois à support mixte continu-discret
Lois à support variable
Lois multidimensionnelles
Discrètes
Continues
Matricielles
Lois directionnelles
Univariantes
Sphériques bidimensionnelles
Toroïdales bidimensionnelles
Multidimensionnelles
Lois singulières
Familles de lois
  • icône décorative Portail des probabilités et de la statistique