Kurtosis

En théorie des probabilités et en statistique, le kurtosis (du nom féminin grec ancien κύρτωσις, « courbure »), aussi traduit par coefficient d’acuité[1], coefficient d’aplatissement et degré de voussure, est une mesure directe de l’acuité et une mesure indirecte de l'aplatissement de la distribution d’une variable aléatoire réelle. Il existe plusieurs mesures de l'acuité et le kurtosis correspond à la méthode de Pearson.

C’est le deuxième des paramètres de forme, avec le coefficient d'asymétrie (les paramètres fondés sur les moments d’ordre 5 et plus n’ont pas de nom propre).

Il mesure, abstraction faite de la dispersion (donnée par l’écart type), la répartition des masses de probabilité autour de leur centre, donné par l’espérance mathématique, c’est-à-dire, d’une certaine façon, leur concentration à proximité ou à distance du centre de probabilité.

Définitions

Kurtosis non normalisé (coefficient d’aplatissement)

Étant donné une variable aléatoire réelle X {\displaystyle X} d’espérance μ {\displaystyle \mu } et d’écart type σ {\displaystyle \sigma } , on définit son kurtosis non normalisé comme le moment d’ordre quatre de la variable centrée réduite :

β 2 = E [ ( X μ σ ) 4 ] {\displaystyle \beta _{2}=\mathbb {E} \left[\left({\frac {X-\mu }{\sigma }}\right)^{4}\right]}

lorsque cette espérance existe. On a donc :

β 2 = μ 4 σ   4 {\displaystyle \beta _{2}={\frac {\mu _{4}}{\sigma ^{\ 4}}}}

avec μ i {\displaystyle \mu _{i}} les moments centrés d’ordre i {\displaystyle i} .

Kurtosis normalisé (excès d’aplatissement)

Le kurtosis non normalisé étant défini en fonction de moments centrés, il est malaisé à manipuler lorsqu’il s’agit de calculer celui de la somme de variables indépendantes.

On définit ainsi le kurtosis normalisé en fonction de cumulants :

γ 2 = κ 4 κ 2   2 {\displaystyle \gamma _{2}={\frac {\kappa _{4}}{\kappa _{2}^{\ 2}}}}

Sachant que μ 2 = κ 2 {\displaystyle \mu _{2}=\kappa _{2}} et μ 4 = κ 4 + 3 κ 2   2 {\displaystyle \mu _{4}=\kappa _{4}+3\kappa _{2}^{\ 2}} , on a alors[2]:

γ 2 = μ 4 3 μ 2   2 μ 2   2 = β 2 3 {\displaystyle \gamma _{2}={\frac {\mu _{4}-3\mu _{2}^{\ 2}}{\mu _{2}^{\ 2}}}=\beta _{2}-3}

Propriétés

Dimension

Les moments centrés μ i {\displaystyle \mu _{i}} et cumulants κ i {\displaystyle \kappa _{i}} ayant pour dimension celle de la variable X {\displaystyle X} élevée à la puissance i {\displaystyle i} , les kurtosis β 2 {\displaystyle \beta _{2}} et γ 2 {\displaystyle \gamma _{2}} sont des grandeurs adimensionnelles.

Plage de valeur

Soit la variable aléatoire réelle Y = ( X μ σ ) 2 {\displaystyle Y=\left({\frac {X-\mu }{\sigma }}\right)^{2}} . Cette variable aléatoire a pour espérance E ( Y ) = μ 2 σ 2 = 1 {\displaystyle \mathbb {E} (Y)={\frac {\mu _{2}}{\sigma ^{2}}}=1} et pour variance V ( Y ) = E ( Y 2 ) E ( Y ) 2 = β 2 1 = γ 2 + 2 {\displaystyle \operatorname {V} (Y)=\mathbb {E} \left(Y^{2}\right)-\mathbb {E} (Y)^{2}=\beta _{2}-1=\gamma _{2}+2} . Sachant que V ( Y ) 0 {\displaystyle \operatorname {V} (Y)\geq 0} , on en déduit alors que :

  • β 2 1 {\displaystyle \beta _{2}\geq 1}
  • γ 2 2 {\displaystyle \gamma _{2}\geq -2}

Cette limite inférieure n’est atteinte que dans le cas où (à transformation affine près) la variable aléatoire X suit une loi de Bernoulli de paramètre p = 1 / 2 {\displaystyle p=1/2} (un seul tirage à pile ou face avec une pièce parfaitement équilibrée). Pour la loi normale, on a γ 2 = 0 {\displaystyle \gamma _{2}=0} .

Le kurtosis n’a pas de limite supérieure.

Somme de réalisations indépendantes

Soient X {\displaystyle X} une variable aléatoire réelle et Y = 1 n X {\displaystyle Y=\sum _{1}^{n}X} la somme de n {\displaystyle n} réalisations indépendantes de X {\displaystyle X} (exemple : la loi binomiale de paramètres n {\displaystyle n} et p {\displaystyle p} , somme de n {\displaystyle n} réalisations indépendantes de la loi de Bernoulli de paramètre p {\displaystyle p} ). Grâce à la propriété d’additivité des cumulants, on sait que κ i ( Y ) = n κ i ( X ) {\displaystyle \kappa _{i}(Y)=n\kappa _{i}(X)} , donc :

γ 2 ( Y ) = n κ 4 ( X ) ( n κ 2 ( X ) ) 2 = γ 2 ( X ) n {\displaystyle \gamma _{2}(Y)={\frac {n\kappa _{4}(X)}{(n\kappa _{2}(X))^{2}}}={\frac {\gamma _{2}(X)}{n}}}

Typologie

Un coefficient d’aplatissement élevé indique que la distribution est plutôt pointue en sa moyenne, et a des queues de distribution épaisses (fat tails en anglais, fat tail au singulier). Cela se déduit en considérant la distribution Y {\displaystyle Y} définie plus haut, dont l’espérance vaut 1 et dont le moment centré d’ordre deux est le kurtosis non normalisé de X {\displaystyle X} . Comme son espérance est fixée, son moment d’ordre deux ne peut évoluer que par compensation : pour l’augmenter, il faut de l’inertie en position éloignée, contrebalancée par de l’inertie proche. En d’autres termes, on « pince » les flancs et les probabilités se déplacent par conséquent vers le centre et les extrémités.

Le terme d'« excès d’aplatissement », dérivé de kurtosis excess en anglais, utilisé pour le kurtosis normalisé peut être source d’ambiguïté. En effet, un excès d’aplatissement positif correspond à une distribution pointue et un excès d’aplatissement négatif à une distribution aplatie (on s’attendrait à l’inverse).

Distribution mésokurtique

Si γ 2 = 0 {\displaystyle \gamma _{2}=0} , on parle de distribution mésokurtique (ou mésocurtique). La loi normale est un cas particulier de distribution mésokurtique pour laquelle le coefficient de dissymétrie γ 1 {\displaystyle \gamma _{1}} vaut 0.

Distribution leptokurtique

Si γ 2 > 0 {\displaystyle \gamma _{2}>0} , on parle de distribution leptokurtique (ou leptocurtique). La notion de leptokurticité est très utilisée dans le milieu de la finance de marché, les échantillons ayant des extrémités plus épaisses que la normale, impliquant des valeurs anormales plus fréquentes[3].

Distribution platikurtique

Si γ 2 < 0 {\displaystyle \gamma _{2}<0} , on parle de distribution platykurtique (ou platycurtique, platikurtique, platicurtique). Pour une même variance, la distribution est relativement « aplatie », son centre et ses queues étant appauvries au profit des flancs.

Exemples de kurtosis pour quelques distributions absolument continues

La figure suivante représente quelques distributions à densité unimodales centrées réduites symétriques ( μ = 0 {\displaystyle \mu =0} , σ = 1 {\displaystyle \sigma =1} et γ 1 = 0 {\displaystyle \gamma _{1}=0} ).

Loi de probabilité Kurtosis normalisé Symbole dans la figure Couleur dans la figure
Loi de Laplace 3 D Courbe rouge
Loi sécante hyperbolique 2 S Courbe orange
Loi logistique 1,2 L Courbe verte
Loi normale 0 N Courbe noire
Loi du cosinus surélevé -0,593762… C Courbe cyan
Loi triangulaire -0,6
Loi du demi-cercle -1 W Courbe bleue
Loi uniforme continue -1,2 U Courbe magenta

Estimateur non biaisé

Une utilisation naïve des définitions théoriques β 2 {\displaystyle \beta _{2}} et γ 2 {\displaystyle \gamma _{2}} du coefficient d’aplatissement entraîne des mesures biaisées. Plusieurs logiciels de statistiques (SAS, Tanagra, Minitab, PSPP/SPSS et Excel par exemple, mais pas BMDP (it)) utilisent un estimateur non biaisé pour la loi normale du kurtosis normalisé[4] :

G 2 = K 4 K 2 2 = n ( n + 1 ) ( n 1 ) ( n 2 ) ( n 3 ) i = 1 n ( x i x ¯ ^ ) 4 K 2 2 3 ( n 1 ) 2 ( n 2 ) ( n 3 ) {\displaystyle G_{2}={\frac {K_{4}}{K_{2}^{2}}}={\frac {n(n+1)}{(n-1)(n-2)(n-3)}}{\frac {\sum _{i=1}^{n}(x_{i}-{\hat {\bar {x}}})^{4}}{K_{2}^{2}}}-3{\frac {(n-1)^{2}}{(n-2)(n-3)}}}

x ¯ ^ {\displaystyle {\hat {\bar {x}}}} , K 2 {\displaystyle K_{2}} et K 4 {\displaystyle K_{4}} sont des estimateurs non biaisés respectivement de l’espérance, de la variance et du moment d'ordre 4 de la variable étudiée.

Voir aussi

Sur les autres projets Wikimedia :

  • Kurtosis, sur Wikimedia Commons

Notes et références

  1. Geneviève Coudé-Gaussen, Les poussières sahariennes, John Libbey Eurotext, , 485 p. (ISBN 978-0-86196-304-1, lire en ligne), p. 471.
  2. Voir Cumulant (statistiques)#Cumulants et moments.
  3. Régis Bourbonnais et Michel Terraza, Analyse des séries temporelles, 2e édition, Dunod, 2008, p. 296.
  4. (en) D.N. Joanes et C.A. Gill, « Comparing Measures of Sample Skewness and Kurtosis », Journal of Statistical Societyt. Séries D (The statisticain), vol. 47, no 1,‎ , p. 183-189, page184.

Articles connexes

v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
  • Coefficient d'asymétrie
  • Coefficient d'aplatissement
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique