Test de Chow

Test de Chow
Type
Test statistique, régression, time series analysis (en)Voir et modifier les données sur Wikidata
Nommé en référence à
Gregory Chow (en)Voir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

Le test de Chow est un test statistique et économétrique afin de déterminer si les coefficients de deux séries linéaires sont égaux. Les coefficients sont établis par régression linéaire.

Il est surtout utilisé dans le cadre de séries temporelles pour savoir s'il y a une cassure significative par une certaine date qui séparerait les données en deux blocs ; il permet également d'évaluer l'impact des variables indépendantes sur les deux groupes ainsi construits. Ce test s'appuie sur la loi de Fisher.

Cassure temporelle dans un modèle Deux modèles différents

Il y a une cassure dans le modèle en x = 1,7, il faut donc effectuer une régression sur l'intervalle [0 ; 1,7] et l'intervalle [1,7 ; 4]. Cela donnera une meilleure estimation qu'une régression globale et compactée en un modèle

On a deux modèles (rouge et vert) comparés sur un même graphique ; séparer la régression donne de meilleures estimations qu'une estimation globale (droite noire)

Soit le modèle :

y t = a + b x 1 t + c x 2 t + ε . {\displaystyle y_{t}=a+bx_{1t}+cx_{2t}+\varepsilon {\text{.}}}

Si on sépare en deux groupes le modèle, on a :

y t = a 1 + b 1 x 1 t + c 1 x 2 t + ε . {\displaystyle y_{t}=a_{1}+b_{1}x_{1t}+c_{1}x_{2t}+\varepsilon .\,}

et

y t = a 2 + b 2 x 1 t + c 2 x 2 t + ε . {\displaystyle y_{t}=a_{2}+b_{2}x_{1t}+c_{2}x_{2t}+\varepsilon {\text{.}}}

L'hypothèse nulle du test de Chow nous dit que a1 = a2, b1 = b2, et c1 = c2.

Soient SC la somme des carrés des résidus estimés du modèle initial, S1 la somme des carrés des résidus estimés du premier groupe, et S2 la somme des carrés des résidus estimés du groupe 2. Les valeurs N1 et N2 représentent le nombre d'observations dans chaque groupe et k est le nombre total de paramétres à estimer (3 dans ce cas). Alors la statistique du test de Chow est égale à :

F = ( S C ( S 1 + S 2 ) ) / k ( S 1 + S 2 ) / ( N 1 + N 2 2 k ) . {\displaystyle \mathrm {F} ={\frac {(\mathrm {S_{C}} -(\mathrm {S} _{1}+\mathrm {S} _{2}))/k}{(\mathrm {S} _{1}+\mathrm {S} _{2})/(\mathrm {N} _{1}+\mathrm {N} _{2}-2k)}}.}

La statistique du test suit une loi de Fisher avec ν1 = k et ν2 = N1 + N2 - 2k degrés de liberté.

Article détaillé : Test de Fisher.

Références

  • (en) Howard E. Doran: Applied Regression Analysis in Econometrics. CRC Press 1989, (ISBN 0824780493), p. 146 (restricted online version (Google Books))
  • (en) Christopher Dougherty: Introduction to Econometrics. Oxford University Press 2007, (ISBN 0199280967), p. 194 (restricted online version (Google Books))
  • (en) Gregory C. Chow, « Tests of Equality Between Sets of Coefficients in Two Linear Regressions », Econometrica, vol. 28(3),‎ , p. 591–605 (JSTOR 1910133)
  • (en) Explications sur le site de Stata : [1] [2] [3]
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique