Test de Wald

Cet article est une ébauche concernant les probabilités et la statistique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Test de Wald
Type
Test statistique, concept mathématique (en)Voir et modifier les données sur Wikidata
Nommé en référence à
Abraham WaldVoir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Le test de Wald est un test paramétrique économétrique dont l'appellation vient du mathématicien américain d'origine hongroise Abraham Wald (-) avec une grande variété d'utilisations. Chaque fois que nous avons une relation au sein des ou entre les éléments de données qui peuvent être exprimées comme un modèle statistique avec des paramètres à estimer, et tout cela à partir d'un échantillon, le test de Wald peut être utilisé pour « tester la vraie valeur du paramètre » basé sur l'estimation de l'échantillon.

Détails mathématiques

Dans le cadre du test de Wald, l'estimation θ ^ {\displaystyle {\hat {\theta }}} (l'argument ou la fonction de vraisemblance est maximal) est comparée à une valeur hypothétique θ 0 {\displaystyle \theta _{0}} . En particulier, la différence au carré θ ^ θ 0 {\displaystyle {\hat {\theta }}-\theta _{0}} est pondérée par la courbure de la fonction de log-vraisemblance.

Test sur un seul paramètre

Si l'hypothèse n'implique qu'une seule restriction de paramètre, alors la statistique de Wald prend la forme suivante :

W = ( θ ^ θ 0 ) 2 var ( θ ^ ) {\displaystyle W={\frac {{({\widehat {\theta }}-\theta _{0})}^{2}}{\operatorname {var} ({\hat {\theta }})}}}

qui, sous l'hypothèse nulle, suit une distribution χ2 asymptotique avec un degré de liberté.

Test(s) sur plusieurs paramètres

Le test de Wald peut être utilisé pour tester une seule hypothèse sur plusieurs paramètres, ainsi que pour tester conjointement plusieurs hypothèses sur des paramètres uniques/multiples. Soit θ ^ n {\displaystyle {\hat {\theta }}_{n}} notre estimateur d'échantillon des paramètres P (c'est-à-dire, θ ^ n {\displaystyle {\hat {\theta }}_{n}} est un P × 1 {\displaystyle P\times 1} vecteur), qui est supposé suivre asymptotiquement une distribution normale avec matrice de covariance V, n ( θ ^ n θ ) D N ( 0 , V ) {\displaystyle {\sqrt {n}}({\hat {\theta }}_{n}-\theta )\,\xrightarrow {\mathcal {D}} \,N(0,V)} . Le test des hypothèses Q sur les paramètres P s'exprime par une matrice Q × P {\displaystyle Q\times P}  ; R :

H 0 : R θ = r {\displaystyle H_{0}:R\theta =r}
H 1 : R θ r {\displaystyle H_{1}:R\theta \neq r}

La statistique de test est :

( R θ ^ n r ) [ R ( V ^ n / n ) R ] 1 ( R θ ^ n r ) D χ Q 2 {\displaystyle (R{\hat {\theta }}_{n}-r)'[R({\hat {V}}_{n}/n)R']^{-1}(R{\hat {\theta }}_{n}-r)\quad \xrightarrow {\mathcal {D}} \quad \chi _{Q}^{2}}

V ^ n {\displaystyle {\hat {V}}_{n}} est un estimateur de la matrice de covariance.

Preuve

Supposons que n ( θ ^ n θ ) D N ( 0 , V ) {\displaystyle {\sqrt {n}}({\hat {\theta }}_{n}-\theta )\,\xrightarrow {\mathcal {D}} \,N(0,V)} . Alors, par le théorème de Slutsky et par les propriétés de la distribution normale, en multipliant par R on a la distribution :

R n ( θ ^ n θ ) = n ( R θ ^ n r ) D N ( 0 , R V R ) {\displaystyle R{\sqrt {n}}({\hat {\theta }}_{n}-\theta )={\sqrt {n}}(R{\hat {\theta }}_{n}-r)\,\xrightarrow {\mathcal {D}} \,N(0,RVR')}

Rappelons qu'une forme quadratique de la loi normale possède une distribution χ2 :

n ( R θ ^ n r ) [ R V R ] 1 n ( R θ ^ n r ) D χ Q 2 {\displaystyle {\sqrt {n}}(R{\hat {\theta }}_{n}-r)'[RVR']^{-1}{\sqrt {n}}(R{\hat {\theta }}_{n}-r)\,\xrightarrow {\mathcal {D}} \,\chi _{Q}^{2}}

En réarrangeant n on obtient finalement :

( R θ ^ n r ) [ R ( V / n ) R ] 1 ( R θ ^ n r ) D χ Q 2 {\displaystyle (R{\hat {\theta }}_{n}-r)'[R(V/n)R']^{-1}(R{\hat {\theta }}_{n}-r)\quad \xrightarrow {\mathcal {D}} \quad \chi _{Q}^{2}}

Voir aussi

v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique
  • icône décorative Portail de l’économie