3. Expression générale du modèle
La formule générale : Yt = β0 + β1X1t + β2X2t + · · · + βkXkt + ut ,
pour tout t = 1 . . . n ; Ou encore sous forme matriciel Y = Xβ + u
Yt : la variable dépendante ( aléatoire )
β0 , β1, β2 . . . βk des coefficients non aléatoires constants
dans le temps et non observables ( leur valeur est inconnue)
Le coefficient β1 est souvent appelé constante du modèle linéaire. De façon implicite, une variable
explicative X0t vaut 1 à chaque période t(X0t = 1 pour tout t), ce qui implique que β0X0t = β0
pour tout t.
Xt : les variables explicatites ( aléatoire)
ut : La variable ut est appelée terme d’erreur ou
perturbation. C’est une variable aléatoire et non observable (en effet, ut = Yt −β0
−β1X1t −β2X2t −· · · −βkXkt, mais on ne peut pas déduire sa réalisation des réalisations
observées de Yt et des Xit car les coefficients βi sont inconnus et donc non observés).
4. Les hypothèses
L’espérance du terme d’erreur est nulle ; E(ut )=0
Les covariances entre le terme et chaque variable
explicative est nulle ; Cov (ut , Xit )=0
Indépendance entre le terme d’erreur et les variables
explicatives
La variance de l’erreur est constante (homoscédasticité)
Absence de colinéarité ( les variables explicatives ne sont
pas corrélés entre elles )
Les variables dépendantes et explicatives sont distribués
normalement
5. L’estimateur MCO
Plusieurs estimateurs des coefficients du modèles
linéaires sont possibles. Le choix dépend du
« statut » des coefficients.
Pourquoi on utilise un estimateur ? Pour trouver les
coefficients estimés puisque les coefficients sont
inconnus
Ici on va se concentrer sur l’estimateur des MCO :
lorsque l’on utilise l’estimateur MCO on définit
forcément un modèle du type : Y = XβˆMCO + e ou
Y = Yt = βˆMCO1 + βˆMCO2 X2t + · · · + βˆMCOk
Xkt + et , ∀t = 1 . . . n
6. Estimateur MCO
Pour déterminer les coefficients estimés/
l’estimateur des moindres carrés , on minimise la
somme des carrés des résidus. On doit donc résoudre
les problèmes d’optimisation :
Ou sous forme de matrice :
La solution de ce problème d’optimisation est :
7. Tests paramétriques
Test nécessaires pour vérifier si les coefficients estimés
pour chaque variables explicatives sont statistiquement
significatifs ou non. Ces test peuvent ainsi identifier les
variables explicatives les plus importantes pour la
prédiction de la variable dépendantes ou celle qui ne sont
pas pertinentes.
Il y a plusieurs test possibles :
- Test de Student
- Test de Wald
- Le test de Fisher
Le principe général est de comparé une p-value à un
seuil préétabli qui est généralement 0,05
8. II-Les test de validation
Test d’homoscédasticité
Test d’absence d’auto-corrélation
Test de normalité
Test de muticolinéarité
9. Test d’homoscédasticité
Détermine si la variance des erreurs est constante pour
tous les niveaux des variables explicatives. Qui est donc
une hypothèse à respecter pour la régression linéaire
Il existe plusieurs test qui consistent tous à comparer la
p-value à un niveau de signification choisi :
- Test de Breusch-Pagan
- Test de White
- Test de Goldfeld-Quandt
- Testde Cook-Weisberg
10. Test d’absence de corrélation
Utilisé pour vérifier si les résidus du modèle sont
indépendants les uns des autres. L’auto-corrélation
des résidus indique que les erreurs sont liés les unes
aux autres , ce qui peut compromettre la validité
Test de Durbin-Watson
11. Test de normalité
Utilisé pour vérifier si le terme d’erreur suit une
distribution normale
Test de Jarque et Bera
12. Test de multicolinéarité
Pour vérifier si deux ou plusieurs variables du
modèle sont indépendantes ou non. Il y a colinéarité
si deux variables sont fortement corrélés de manière
positive ou négative.
Plusieurs test possibles
-Test de Pearson
- Test de Kaiser- Meyer –Olkin
- VIF ( Variance inflation Factor )
13. III-Violation des hypothèses et solutions
Estimateur de Newey-West : utiliser pour régler les
problèmes de corrélations entre erreurs. Il faut
chercher l’estimateur de Newey-West qui va
pondérer les résultats de l’estimation et ainsi réduire
l’effet de la corrélations sur les coefficients estimés
obtenues.
Estimateur robuste de White : même principe mais
juste que la calcul de l’estimateur diffère.
Hinweis der Redaktion
Lorsque l’on fait une régression , il faut utiliser un estimateur !!!
Lorsqu’il y a violation d’hypothèses dans un MRM , l’estimateur MCO peut produire des estimations biaisés. Une des iolations d’hyphothèse est la corrélation entre les erreurs (hétéroscédasticité) . Cependant on peut utiliser des estimateurs pour corriger tout cela.