SlideShare une entreprise Scribd logo
1  sur  13
Le modèle de régression multiple
gggg
I-Présentation du modèle
Expression générale du modèle
 La formule générale : Yt = β0 + β1X1t + β2X2t + · · · + βkXkt + ut ,
pour tout t = 1 . . . n ; Ou encore sous forme matriciel Y = Xβ + u
 Yt : la variable dépendante ( aléatoire )
 β0 , β1, β2 . . . βk des coefficients non aléatoires constants
dans le temps et non observables ( leur valeur est inconnue)
Le coefficient β1 est souvent appelé constante du modèle linéaire. De façon implicite, une variable
explicative X0t vaut 1 à chaque période t(X0t = 1 pour tout t), ce qui implique que β0X0t = β0
pour tout t.
 Xt : les variables explicatites ( aléatoire)
 ut : La variable ut est appelée terme d’erreur ou
perturbation. C’est une variable aléatoire et non observable (en effet, ut = Yt −β0
−β1X1t −β2X2t −· · · −βkXkt, mais on ne peut pas déduire sa réalisation des réalisations
observées de Yt et des Xit car les coefficients βi sont inconnus et donc non observés).
Les hypothèses
 L’espérance du terme d’erreur est nulle ; E(ut )=0
 Les covariances entre le terme et chaque variable
explicative est nulle ; Cov (ut , Xit )=0
 Indépendance entre le terme d’erreur et les variables
explicatives
 La variance de l’erreur est constante (homoscédasticité)
 Absence de colinéarité ( les variables explicatives ne sont
pas corrélés entre elles )
 Les variables dépendantes et explicatives sont distribués
normalement
L’estimateur MCO
 Plusieurs estimateurs des coefficients du modèles
linéaires sont possibles. Le choix dépend du
« statut » des coefficients.
 Pourquoi on utilise un estimateur ? Pour trouver les
coefficients estimés puisque les coefficients sont
inconnus
 Ici on va se concentrer sur l’estimateur des MCO :
lorsque l’on utilise l’estimateur MCO on définit
forcément un modèle du type : Y = XβˆMCO + e ou
Y = Yt = βˆMCO1 + βˆMCO2 X2t + · · · + βˆMCOk
Xkt + et , ∀t = 1 . . . n
Estimateur MCO
 Pour déterminer les coefficients estimés/
l’estimateur des moindres carrés , on minimise la
somme des carrés des résidus. On doit donc résoudre
les problèmes d’optimisation :
Ou sous forme de matrice :
 La solution de ce problème d’optimisation est :
Tests paramétriques
 Test nécessaires pour vérifier si les coefficients estimés
pour chaque variables explicatives sont statistiquement
significatifs ou non. Ces test peuvent ainsi identifier les
variables explicatives les plus importantes pour la
prédiction de la variable dépendantes ou celle qui ne sont
pas pertinentes.
 Il y a plusieurs test possibles :
- Test de Student
- Test de Wald
- Le test de Fisher
 Le principe général est de comparé une p-value à un
seuil préétabli qui est généralement 0,05
II-Les test de validation
 Test d’homoscédasticité
 Test d’absence d’auto-corrélation
 Test de normalité
 Test de muticolinéarité
Test d’homoscédasticité
 Détermine si la variance des erreurs est constante pour
tous les niveaux des variables explicatives. Qui est donc
une hypothèse à respecter pour la régression linéaire
 Il existe plusieurs test qui consistent tous à comparer la
p-value à un niveau de signification choisi :
- Test de Breusch-Pagan
- Test de White
- Test de Goldfeld-Quandt
- Testde Cook-Weisberg
Test d’absence de corrélation
 Utilisé pour vérifier si les résidus du modèle sont
indépendants les uns des autres. L’auto-corrélation
des résidus indique que les erreurs sont liés les unes
aux autres , ce qui peut compromettre la validité
 Test de Durbin-Watson
Test de normalité
 Utilisé pour vérifier si le terme d’erreur suit une
distribution normale
 Test de Jarque et Bera
Test de multicolinéarité
 Pour vérifier si deux ou plusieurs variables du
modèle sont indépendantes ou non. Il y a colinéarité
si deux variables sont fortement corrélés de manière
positive ou négative.
 Plusieurs test possibles
-Test de Pearson
- Test de Kaiser- Meyer –Olkin
- VIF ( Variance inflation Factor )
III-Violation des hypothèses et solutions
 Estimateur de Newey-West : utiliser pour régler les
problèmes de corrélations entre erreurs. Il faut
chercher l’estimateur de Newey-West qui va
pondérer les résultats de l’estimation et ainsi réduire
l’effet de la corrélations sur les coefficients estimés
obtenues.
 Estimateur robuste de White : même principe mais
juste que la calcul de l’estimateur diffère.

Contenu connexe

Similaire à Econométrie appliqué.pptx

Metrologie termilnal
Metrologie termilnalMetrologie termilnal
Metrologie termilnalm.a bensaaoud
 
Processus de Wiener et lemme d’itȎ.ppt
Processus de Wiener et lemme d’itȎ.pptProcessus de Wiener et lemme d’itȎ.ppt
Processus de Wiener et lemme d’itȎ.pptOumaimaCharhabil
 
Chapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxChapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxmelianikholoud
 
Test de wilcoxon mann-whitney (SPSS), Test non-paramétrique
Test de wilcoxon mann-whitney (SPSS), Test non-paramétrique Test de wilcoxon mann-whitney (SPSS), Test non-paramétrique
Test de wilcoxon mann-whitney (SPSS), Test non-paramétrique Adad Med Chérif
 
Acfas2018 Compensations multi-époques
Acfas2018 Compensations multi-époquesAcfas2018 Compensations multi-époques
Acfas2018 Compensations multi-époquesThomasTouz
 
Econométrie appliquée--stationarité.pptx
Econométrie appliquée--stationarité.pptxEconométrie appliquée--stationarité.pptx
Econométrie appliquée--stationarité.pptxwidedbenmoussa2021
 
Cours gestion de la production Pr Falloul
Cours gestion de la production Pr FalloulCours gestion de la production Pr Falloul
Cours gestion de la production Pr FalloulProfesseur Falloul
 
Controlegestion
ControlegestionControlegestion
Controlegestionhassan1488
 
Analyse en composantes principales, ACP, sous SPSS (Principal Component Analy...
Analyse en composantes principales, ACP, sous SPSS (Principal Component Analy...Analyse en composantes principales, ACP, sous SPSS (Principal Component Analy...
Analyse en composantes principales, ACP, sous SPSS (Principal Component Analy...Adad Med Chérif
 

Similaire à Econométrie appliqué.pptx (11)

Metrologie termilnal
Metrologie termilnalMetrologie termilnal
Metrologie termilnal
 
Processus de Wiener et lemme d’itȎ.ppt
Processus de Wiener et lemme d’itȎ.pptProcessus de Wiener et lemme d’itȎ.ppt
Processus de Wiener et lemme d’itȎ.ppt
 
Chapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxChapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptx
 
Test de wilcoxon mann-whitney (SPSS), Test non-paramétrique
Test de wilcoxon mann-whitney (SPSS), Test non-paramétrique Test de wilcoxon mann-whitney (SPSS), Test non-paramétrique
Test de wilcoxon mann-whitney (SPSS), Test non-paramétrique
 
Regression simple
Regression simpleRegression simple
Regression simple
 
Acfas2018 Compensations multi-époques
Acfas2018 Compensations multi-époquesAcfas2018 Compensations multi-époques
Acfas2018 Compensations multi-époques
 
Econométrie appliquée--stationarité.pptx
Econométrie appliquée--stationarité.pptxEconométrie appliquée--stationarité.pptx
Econométrie appliquée--stationarité.pptx
 
Cours gestion de la production Pr Falloul
Cours gestion de la production Pr FalloulCours gestion de la production Pr Falloul
Cours gestion de la production Pr Falloul
 
Controlegestion
ControlegestionControlegestion
Controlegestion
 
Regsimple
RegsimpleRegsimple
Regsimple
 
Analyse en composantes principales, ACP, sous SPSS (Principal Component Analy...
Analyse en composantes principales, ACP, sous SPSS (Principal Component Analy...Analyse en composantes principales, ACP, sous SPSS (Principal Component Analy...
Analyse en composantes principales, ACP, sous SPSS (Principal Component Analy...
 

Econométrie appliqué.pptx

  • 1. Le modèle de régression multiple
  • 3. Expression générale du modèle  La formule générale : Yt = β0 + β1X1t + β2X2t + · · · + βkXkt + ut , pour tout t = 1 . . . n ; Ou encore sous forme matriciel Y = Xβ + u  Yt : la variable dépendante ( aléatoire )  β0 , β1, β2 . . . βk des coefficients non aléatoires constants dans le temps et non observables ( leur valeur est inconnue) Le coefficient β1 est souvent appelé constante du modèle linéaire. De façon implicite, une variable explicative X0t vaut 1 à chaque période t(X0t = 1 pour tout t), ce qui implique que β0X0t = β0 pour tout t.  Xt : les variables explicatites ( aléatoire)  ut : La variable ut est appelée terme d’erreur ou perturbation. C’est une variable aléatoire et non observable (en effet, ut = Yt −β0 −β1X1t −β2X2t −· · · −βkXkt, mais on ne peut pas déduire sa réalisation des réalisations observées de Yt et des Xit car les coefficients βi sont inconnus et donc non observés).
  • 4. Les hypothèses  L’espérance du terme d’erreur est nulle ; E(ut )=0  Les covariances entre le terme et chaque variable explicative est nulle ; Cov (ut , Xit )=0  Indépendance entre le terme d’erreur et les variables explicatives  La variance de l’erreur est constante (homoscédasticité)  Absence de colinéarité ( les variables explicatives ne sont pas corrélés entre elles )  Les variables dépendantes et explicatives sont distribués normalement
  • 5. L’estimateur MCO  Plusieurs estimateurs des coefficients du modèles linéaires sont possibles. Le choix dépend du « statut » des coefficients.  Pourquoi on utilise un estimateur ? Pour trouver les coefficients estimés puisque les coefficients sont inconnus  Ici on va se concentrer sur l’estimateur des MCO : lorsque l’on utilise l’estimateur MCO on définit forcément un modèle du type : Y = XβˆMCO + e ou Y = Yt = βˆMCO1 + βˆMCO2 X2t + · · · + βˆMCOk Xkt + et , ∀t = 1 . . . n
  • 6. Estimateur MCO  Pour déterminer les coefficients estimés/ l’estimateur des moindres carrés , on minimise la somme des carrés des résidus. On doit donc résoudre les problèmes d’optimisation : Ou sous forme de matrice :  La solution de ce problème d’optimisation est :
  • 7. Tests paramétriques  Test nécessaires pour vérifier si les coefficients estimés pour chaque variables explicatives sont statistiquement significatifs ou non. Ces test peuvent ainsi identifier les variables explicatives les plus importantes pour la prédiction de la variable dépendantes ou celle qui ne sont pas pertinentes.  Il y a plusieurs test possibles : - Test de Student - Test de Wald - Le test de Fisher  Le principe général est de comparé une p-value à un seuil préétabli qui est généralement 0,05
  • 8. II-Les test de validation  Test d’homoscédasticité  Test d’absence d’auto-corrélation  Test de normalité  Test de muticolinéarité
  • 9. Test d’homoscédasticité  Détermine si la variance des erreurs est constante pour tous les niveaux des variables explicatives. Qui est donc une hypothèse à respecter pour la régression linéaire  Il existe plusieurs test qui consistent tous à comparer la p-value à un niveau de signification choisi : - Test de Breusch-Pagan - Test de White - Test de Goldfeld-Quandt - Testde Cook-Weisberg
  • 10. Test d’absence de corrélation  Utilisé pour vérifier si les résidus du modèle sont indépendants les uns des autres. L’auto-corrélation des résidus indique que les erreurs sont liés les unes aux autres , ce qui peut compromettre la validité  Test de Durbin-Watson
  • 11. Test de normalité  Utilisé pour vérifier si le terme d’erreur suit une distribution normale  Test de Jarque et Bera
  • 12. Test de multicolinéarité  Pour vérifier si deux ou plusieurs variables du modèle sont indépendantes ou non. Il y a colinéarité si deux variables sont fortement corrélés de manière positive ou négative.  Plusieurs test possibles -Test de Pearson - Test de Kaiser- Meyer –Olkin - VIF ( Variance inflation Factor )
  • 13. III-Violation des hypothèses et solutions  Estimateur de Newey-West : utiliser pour régler les problèmes de corrélations entre erreurs. Il faut chercher l’estimateur de Newey-West qui va pondérer les résultats de l’estimation et ainsi réduire l’effet de la corrélations sur les coefficients estimés obtenues.  Estimateur robuste de White : même principe mais juste que la calcul de l’estimateur diffère.

Notes de l'éditeur

  1. Lorsque l’on fait une régression , il faut utiliser un estimateur !!!
  2. Lorsqu’il y a violation d’hypothèses dans un MRM , l’estimateur MCO peut produire des estimations biaisés. Une des iolations d’hyphothèse est la corrélation entre les erreurs (hétéroscédasticité) . Cependant on peut utiliser des estimateurs pour corriger tout cela.