SlideShare une entreprise Scribd logo
1  sur  21
Persistance contre Hystérèse
pour les données du
chômage en France
Ahmed Pierre SAIZONOU
MASTER 2 Ingénierie Economique
Université Montesquieu Bordeaux IV
1
INTRODUCTION
De nombreuses tentatives ont été menées pour rendre compte du caractère cyclique
des séries chronologiques en macroéconomie. Les chocs, qui constituent un événement
aléatoire venant frapper l’économie, modifient l’environnement des agents.
Leurs actions futures en réaction à cette perturbation, feront que les effets du choc se
propageront. Ces phénomènes considérés dans leur ensemble induisent donc une véritable
dynamique pour l’économie.
La distinction faite en macroéconomie entre l’analyse des fluctuations et celle de la
croissance, correspond en statistique à la décomposition cycle/tendance, laquelle suppose une
non-permanence des chocs.
Cette décomposition a cependant été soumise à de nombreuses critiques, suite à des travaux
empiriques effectués entre le milieu des années soixante-dix et le milieu des années quatre
vingt.
Ces travaux tendent à révéler l’existence d’un phénomène de persistance, on ne peut
plus ainsi, faire l’hypothèse d’une tendance de long terme sur laquelle les aléas de l’économie
n’ont aucun effet.
La persistance du chômage en Europe va conduire les économistes à expliquer
comment les aléas conjoncturels peuvent avoir un effet permanent sur le niveau du chômage.
Une autre distinction se dégage, à savoir la nécessité de différencier la persistance de
l’hystérèse. Autrement la nécessité de savoir si, dans l’économie il y a une mémoire infinie
des chocs, ou plutôt si le retour à un équilibre, même si le délai est très long, est possible.
Pour ce faire, en appliquant ces théories au cadre du chômage français, nous serons amenés à
distinguer deux hypothèses fortes. En effet l’hypothèse du taux naturel renvoie à la
persistance longue, tandis que celle de l’hystérèse correspond plus à une persistance infinie.
En statistique, cette distinction conduit à considérer deux types de processus, les processus
‘‘Trend Stationnary’’ (TS) et les processus ‘’Difference Stationnary’’ (DS).
Dans notre étude, nous serons donc amenés dans un premier temps à présenter un cadre
historique avant de s’intéresser au cadre théorique ensuite nous présenterons un cadre
théorique de référence pour le chômage, à savoir le modèle de BLANCHARD et SUMMERS
(1987).
Ensuite nous nous intéresserons au test proprement dit de racine unitaire, en présentant
aussi toute la controverse qui l’entoure, cela sur les données françaises. Enfin nous conclurons
sur les résultats de ce test et les conséquences pour le chômage en France.
1-CADRE HISTORIQUE
Le chômage a augmenté tandis que le chômage d’équilibre, estimé à travers la courbe
de PHILLIPS a augmenté en tandem. En Europe, le taux dépasse les onze pour cent, si ce
n’était la chute du prix du pétrole et la dépréciation du dollar l’inflation serait constante.
Autrement dit, le taux de chômage actuel semble être le taux d’équilibre.
L’augmentation des deux taux (actuel et d’équilibre) pourrait être expliquée par les chocs,
mais toutes les tentatives pour identifier ces chocs de manière empirique ont échoué.
2
Le ralentissement de la productivité et l’augmentation des prix du pétrole pourraient expliquer
la situation des années 70 mais il y a peu de chocs identifiables pouvant expliquer un
doublement du chômage d’équilibre dans les années 80.
L’emploi en France est un sujet très important tant au niveau politique que social,
quand on tient des nombreuses décisions économiques et politiques visant à réduire le
chômage et soumises à de nombreuses controverses.
A l’aide des données fournies par l’INSEE nous allons essayer de mettre en évidence
pour la France un caractère persistant du chômage. Les données utilisées sont trimestrielles et
couvrent la période. Le graphe suivant décrit alors l’allure du chômage en France.
2- CADRE THEORIQUE
L’approche dominante pour l’analyse des séries macroéconomiques, consistait en une
décomposition cycle/tendance. Une telle décomposition nécessitait l’identification de deux
types de processus, à savoir les processus de type ‘‘Trend Stationnary’’ et les processus de
type ‘’Difference Stationnary’’.
2.1- Cycle et tendance
Une série chronologique a souvent trois composantes : une tendance, une composante
cyclique et une composante saisonnière. Pour des séries désaisonnalisées, la dissociation du
cycle et de la tendance revêt un double intérêt.
3
2.1.1- Sur le plan économique…
Il s’agit de distinguer la composante longue associée à la tendance de la composante
transitoire associée au cycle. En somme, on fait l’hypothèse, pour les séries
macroéconomiques, d’une tendance de long terme autour de laquelle apparaissent des
fluctuations plus ou moins régulières, dont l’impact sur la tendance de long terme est nul.
2.1.2- Sur le plan statistique…
Il faut savoir que l’on ne peut travailler que sur des séries stationnaires. C’est à dire
des séries avec trois caractéristiques : une espérance ne dépendant pas du temps, une variance
et une covariance constantes au cours du temps.
La majeure partie des séries chronologiques étant non-stationnaire, avant toute étude,
il faut procéder à une stationnarisation, et pour ce faire, on distingue deux méthodes pour les
deux cas suivants : le cas des processus stationnaires en tendance et le cas des processus
stationnaires en différence.
2.2- Processus TS et processus DS
La distinction a été étudiée par NELSON et PLOSSER en 1982. Ils précisent que la
macroéconomie sépare une composante croissante non-stationnaire, d’une composante
cyclique stationnaire. Cette distinction est effectuée quand on décompose les séries
chronologiques en économie.
Les perturbations transitoires sont dues à des chocs monétaires, cette représentation
étant nommée processus ‘‘Trend Stationnary’’, ou stationnaire en tendance.
Les processus ‘’Difference Stationnary’’, ou stationnaire en différence, intégrés, affichent une
non-stationnarité qui est, elle, stochastique, et ne présentent donc aucune tendance à retourner
automatiquement à un trend déterministe. Les processus DS ne permettent pas d’effectuer des
prévisions à long terme basées sur la moyenne des séries.
A l’inverse, l’histoire passée du processus TS n’a aucune influence sur sa valeur de
long terme. Les valeurs prises par une variable suivant un processus DS résultent de la somme
des événements passés.
Pour la formalisation, on pourra retenir comme exemple de processus TS un processus
avec une tendance linéaire du type :
X(t) = μ + βt + ε(t)
ε(t) → bb (0,σ²)
Comme exemple de processus DS on prendra l’exemple d’une marche aléatoire pure :
X(t) = X(t-1) + ε(t)
ε(t) → bb (0,σ²)
4
La distinction entre les processus TS et DS permet de présenter plus clairement le
phénomène d’hystérèse, notamment les hypothèses sous-jacentes, et de l’opposer à la notion
de persistance.
2.3- Persistance contre hystérèse
La persistance : Un choc transitoire est persistant si, suite à son observation dans
l’économie, le mécanisme de propagation implique un délai avant le retour à l’équilibre
initial. Plus ce délai de retour à l’équilibre est long, plus le choc est persistant.
L’hystérèse : Il y a hystérèse si suite à un choc transitoire dans l’économie le
mécanisme de propagation ne permet pas de revenir à l’équilibre initial. On envisage ici que
l’économie s’est dirigée vers un nouvel équilibre, la propriété d’unicité de l’équilibre est donc
fortement remise en cause. De plus, l’équilibre atteint est conditionné par la somme des
événements antérieurs, il y a donc ici une dépendance au sentier.
3- APPLICATION AU CHOMAGE
Notre cadre de référence sera ici celui développé par BLACNCHARD et SUMMERS
(1987). Les auteurs reviennent sur la dichotomie présente en macroéconomie entre :
→ Chômage d’équilibre : déterminé sur le marché du travail, il bouge lentement et
n’est pas affecté par l’évolution du chômage actuel.
→ Chômage actuel : diffère du chômage d’équilibre à cause des mouvements
inattendus de l’offre et de la demande, l’écart par rapport au taux d’équilibre modifie à son
tour le taux d’inflation et ainsi on a un retour vers le taux de chômage d’équilibre.
Les auteurs présentent ensuite une illustration, tendant à montrer que le taux de chômage
actuel, bien qu’élevé, semble bien être le taux de chômage d’équilibre en Europe.
Le but des deux auteurs est d’expliquer la persistance d’un chômage élevé en Europe. Pour ce
faire, ils utilisent les deux courants les plus intéressants dans la recherche sur l’hystérèse.
Cette recherche étant basée sur l’analyse du marché du travail, plus précisément sur l’étude de
la relation entre le chômage et l’établissement des salaires.
Ces deux courants sont :
- le courant de l’appartenance
- le courant de la durée
Dans le premier on oppose les ‘‘insiders’’ aux ‘’outsiders’’, l’établissement des salaires
dépend plutôt des salariés en exercice plutôt que des chômeurs. Dans le second cas l’accent
est mis sur la différence entre les chômeurs à court terme et les chômeurs à long terme, avec
comme idée que le chômeur de court terme exerce une pression sur l’établissement des
salaires.
Dans leur étude, les deux auteurs fixent un certain nombre d’hypothèses comportementales.
3.1- Les firmes
Les firmes font face à une demande qui est fonction de la demande agrégée (celle-ci
dépendant des encaisses réelles), laquelle quand les prix ne s’ajustent pas, affecte la demande
5
globale et l’emploi. Chaque firme a des rendements d’échelle constants, un coût marginal et
une élasticité de la demande constants.
3.2- Les insiders
Les insiders sont les seuls à être représentés lors des négociations salariales, et sont
prioritaires pour l’emploi. Ce pouvoir s’explique par le fait que l’emploi d’un nouveau
travailleur serait un coût supérieur pour l’entreprise, ne serai ce que pour la formation de ce
dernier. BLANCHARD et SUMMERS supposent que dans chaque firme, le groupe des
insiders est assez influent pour établir les salaires de manière unilatérale.
Cet établissement se faisant sur la base d’une anticipation de l’emploi égale au nombre des
insiders. Les insiders représentés par des syndicats s’assurent ainsi une pérennisation de leurs
emplois.
En se basant sur une homogénéité des groupes de travailleurs, et sur une nature nominale des
chocs, les auteurs précisent que si les syndicats s’occupent uniquement des travailleurs en
exercice, on a :
n = nt-1 + (m- Em) (1)
où :
n → emploi à la période actuelle
nt-1 → emploi à la période précédente
m → masse monétaire ( en nominal)
Em → masse monétaire anticipée
Il s’agit ainsi d’une marche aléatoire simple, où le terme d’erreur ou innovation résulte
d’une mauvaise anticipation ou de fluctuations imprévues de la masse monétaire.
Donc avec toutes les implications vues précédemment, on peut dire qu’il n’y aura aucune
tendance dans l’emploi à un retour vers une situation d’équilibre.
Les auteurs poursuivent en précisant qu’à la suite d’un choc négatif sur l’emploi, les
travailleurs en exercice n’ont aucune intention de réduire le salaire nominal afin d’augmenter
l’emploi.
A la suite d’un choc positif sur l’emploi, des outsiders sont maintenant employés, et ils
n’ont pas intérêt à exercer une pression à la hausse sur les salaires, cela afin de conserver leur
emploi.
3.3- Les outsiders
L’hypothèse faite plutôt selon laquelle les outsiders n’ont aucune influence sur
l’établissement des salaires est trop forte. Les auteurs précisent qu’à travers le jeu de la
concurrence, les nouvelles firmes qui emploient des outsiders peuvent pousser les insiders
dans les firmes préexistantes, à accepter une réduction de leurs salaires pour que l’entreprise
réduise ses coûts et reste compétitive.
D’autres considérations sont à prendre en compte pour illustrer l’influence des
outsiders :
→ Plus le chômage est important, plus la probabilité d’être employé est
faible et là le pouvoir de négociation des salaires bascule en faveur des firmes.
6
→ En situation de chômage fort, remplacer les insiders par des outsiders qui
accepteraient un salaire plus faible serait une tentation forte pour la firme.
Cependant on doit prendre en compte le fait que des conflits au sein de l’entreprise
entre les insiders et les outsiders récemment employés puissent être des sources de coûts
supplémentaires. De plus l’option de remplacement de toute la main d’œuvre n’est pas
envisageable, simplement à cause de la spécificité de cette dernière et donc du coût et du délai
que cela représenterait.
En tenant compte de ces nouvelles hypothèses on arrive à :
1
n- n* = ———— [ nt-1 – n*] + (m – Em) (2)
1 + b
où:
n*→ population active totale
b > 0
On a maintenant à faire à un processus du premier ordre pour décrire l’évolution de
l’emploi. Si (n*) est stable dans le temps, le chômage suit à peu prés un processus auto
régressif d’ordre un. Si (b) est égal à zéro, on se retrouve dans le cas précédent où l’emploi
suit une marche aléatoire. Quand (b) augmente, le degré de persistance tel que nous l’avons
décrit plus haut, diminue.
3.4- La durée du chômage
Ce modèle correspond à une position intermédiaire par rapport aux deux situations
précédentes. En effet, ici l’accent est mis sur le fait que seuls les chômeurs à court terme
exercent une pression à la baisse sur les salaires.
Les travaux empiriques de LAYARD et NICKELL (1986) confortent cette hypothèse en
précisant que pour le Royaume Uni l’effet des chômeurs à long terme sur l’établissement des
salaires est très faible.
D’autres faits tendent à prouver que l’influence des chômeurs à court terme est plus
importante. On peut par exemple se dire que plus la durée du chômage est importante, plus la
productivité est faible, car on a perdu la plupart des aptitudes requises.
On peut aussi tenir compte du salaire de réservation, en supposant qu’il diminue avec la durée
du chômage, on retrouve aussi le fameux arbitrage entre loisir et recherche active d’un emploi
(sous réserve qu’il existe des aides financières pour les chômeurs).
Les auteurs posent l’hypothèse selon laquelle le chômage de court terme est
assimilable aux changements dans la structure du chômage. De plus ils supposent que la
pression sur les salaires de la part des outsiders ne dépend pas du chômage dans sa globalité,
mais plutôt du chômage de court terme anticipé.
Ainsi si on maintient l’hypothèse selon laquelle les syndicats ne s’occupent que des
travailleurs déjà en poste on retrouve l’égalité (1) :
n = nt-1 + (m- Em)
7
On retrouve ainsi le résultat de départ, une marche aléatoire, cependant ici on tient
compte du comportement des insiders et de l’influence des chômeurs de court terme.
Pour conclure sur ces différents modèles les auteurs mettent le doigt sur la nécessité
d’envisager des structures de négociation plus complexes. Ils proposent aussi de tenir compte
des disparités sectorielles pour ce qui est de l’établissement des salaires.
Quant à la politique économique, on aboutit à des résultats différents de ceux des théories
niant l’influence du chômage actuel sur le chômage d’équilibre.
Dans le cas de l’Europe, le taux de chômage devrait rester élevé, toute politique tendant à
réduire le taux actuel, réduirait aussi le chômage d’équilibre.
4- TEST D’UNE RACINE UNITAIRE
Il s ‘agit d’un test souvent utilisé pour identifier la nature du processus et donc
l’existence ou non de persistance. Cependant ces tests sont soumis à de nombreuses critiques :
- MANKIW et CAMPBELL (1987)
Ils précisent que la présence d’une racine unitaire est compatible avec une persistance
faible ou élevée. Pour eux, la présence d’une racine unitaire est une condition nécessaire mais
pas suffisante pour la persistance.
- COCHRANE (1988)
Il opère à une remise en cause de l’article de NELSON et PLOSSER, la distinction
court terme long terme est maintenue. Quand on a à faire à une marche aléatoire X(t), la
grandeur se présente sous la forme de:
Var [X(t) – X(t-k)] (3)
La grandeur va alors croître avec (k) tandis que dans le cas d’un processus TS cette
grandeur est indépendante de (k). Pour les processus auto régressifs de type :
X(t) = αX(t-1) + ε(t) (4)
COCHRANE insiste surtout sur la nécessité de distinguer les cas où α = 0,95 ou α =
0,99 de ceux où α = 1.
Le premier cas suggérant une mémoire certes longue, mais pas infinie, alors que le deuxième
renvoie plutôt à l’hypothèse de l’existence d’une racine unitaire et donc d’hystérèse.
- PERRON (1989)
Il remet aussi en cause les idées de NELSON et PLOSSER, en niant la présence de
racines unitaires dans les séries chronologiques macroéconomiques, il penche donc pour des
phénomènes transitoires. Pour lui seuls la crise de 1929 et le choc pétrolier de 1973 ont eu
des effets permanents.
La crise, à travers un changement de l’ordonnée à l’origine de la tendance déterministe
et le choc pétrolier à travers un changement de pente de cette même tendance. PERRON
8
remet surtout en cause le test de racine unitaire de DICKEY et FULLER, en prenant comme
exemple un processus TS pour lequel il y a un changement dans la tendance au milieu de
l’échantillon. Il montre qu'on conclut à tort à l’existence d’une tendance stochastique !
Notre démarche pour tester la présence ou non d’une racine unitaire, dans la série du
chômage français suivra la méthode de DICKEY et FULLER. Nous allons plus précisément
effectuer un test joint mené à partir de trois régressions.
5- MISE EN ŒUVRE DU TEST DE DICKEY-FULLER
Nous allons à présent proposer une stratégie de tests de DICKEY-FULLER permettant de
tester la non stationnarité conditionnellement à la spécification du modèle utilisé. On
considère trois modèles définis comme suit :
Modèle 1 : Δxt = φxt−1 + εt (5)
Modèle 2 : Δxt = φxt−1 + c + εt (6)
Modèle 3 : Δxt = φxt−1 + c + βt + εt (7)
avec εt i.i.d. (0, σ2
). On cherche à tester l’hypothèse de racine unitaire :
H0 : φ = 0 H1 : φ < 0
On commence par tester la racine unitaire à partir du modèle le plus général, à savoir le
modèle 3. On compare la réalisation de la statistique de Student t􀁥 φ=0 aux seuils C3 (α)
tabulés par DICKEY et FULLER, ou McKINNON pour le modèle 3 (par exemple −3.41 à
5%, pour T → ∞). Si la réalisation de t φ=0 est supérieure au seuil C3
(α), on accepte
l’hypothèse nulle de non stationnarité. Une fois que le diagnostic est établi, on cherche à
vérifier si la spécification du modèle 3, incluant une constante et un trend, était une
spécification compatible avec les données. On teste alors la nullité du coefficient
β de la tendance. Deux choses l’une :
• Soit on a rejeté au préalable l’hypothèse de racine unitaire, dans ce cas on teste la nullité de
β par un simple test de Student avec des seuils standards (test symétrique, donc seuil de 1.96
à 5%). Si l’on rejette l’hypothèse β = 0, cela signifie que le modèle 3 est retenu pour tester la
racine unitaire, puisque la présence d’une tendance n’est pas rejetée. Dans ce cas, on conclut
que la racine unitaire est rejetée, la série est TS, du fait de la présence de la tendance.
Cependant, si l’on accepte l’hypothèse β = 0, le modèle n’est pas adapté puisque
la présence d’une tendance est rejetée. On doit refaire le test de racine unitaire à partir du
modèle 2, qui ne comprend qu’une constante.
• Soit, au contraire, on avait au préalable, accepté l’hypothèse de racine unitaire, et dans ce
cas, on doit construire un test de Fischer de l’hypothèse jointe φ = 0 et β = 0. On teste ainsi
la nullité de la tendance, conditionnellement à la présence d’une racine unitaire:
H3
0 : (c; b; φ) = (c; 0; 0) contre H3
1
9
La statistique de ce test se construit de façon standard par la relation :
(SCR3,c − SCR3)/2
F3 =
SCR3/ (T − 3)
où SCR3,c est la somme des carrés des résidus du modèle 3 contraint sous H3
0 :
Δxt = c + εt
et SCR3 est la somme des carrés des résidus du modèle 3 non contraint (équation 7) Si F3 est
supérieur à la valeur φ3 lue dans la table de DICKEY ET FULLER à un seuil α%, on
rejette l’hypothèse H3
0 . Dans ce cas, le modèle 3 est retenu et la série xt est intégrée
d’ordre 1. Par contre, si l’on accepte H3
0 , le coefficient de la tendance est nul, le modèle 3
n’est pas le ”bon” modèle, on doit donc effectuer à nouveau le test de non stationnarité dans le
modèle 2.
Si l’on a accepté la nullité du coefficient β de la tendance, on doit alors effectuer à nouveau
les tests de non stationnarité à partir cette fois-ci du modèle 2 (équation 6) incluant
uniquement une constante. On compare alors la réalisation de la statistique de Student tφ=0
aux seuils C2
(α) dans la DICKEY et FULLER, ou MckINNON pour le modèle 2. Si la
réalisation de t φ=0 est supérieure au seuil C2
(α), on accepte l’hypothèse nulle de non
stationnarité. Une fois que le diagnostic est établi, on cherche à vérifier si le modèle 2,
incluant une constante, est une compatible avec les données. On teste alors la nullité du
coefficient c de la constante. Deux choses l’une :
• Soit on a rejeté au préalable l’hypothèse de racine unitaire, dans ce cas on teste la nullité de
c par un simple test de Student avec des seuils standard. Si on rejette l’hypothèse c = 0, on
retiendra le modèle 2 pour tester la racine unitaire, puisque la présence d’une constante n’est
pas rejetée. Dans ce cas, on conclut que la racine unitaire est rejetée, la série est stationnaire
I (0) + c. En revanche, si l’on accepte l’hypothèse c = 0, le modèle 2 n’est pas adapté puisque
la présence d’une constante est rejetée. On doit refaire le test de racine unitaire à partir du
modèle 1, qui ne comprend ni constante ni trend.
• Soit, au contraire, on avait au préalable, accepté l’hypothèse de racine unitaire, et dans ce
cas, on doit construire un test de Fischer de l’hypothèse jointe φ = 0 et c = 0. On teste ainsi
la nullité de la constante, conditionnellement à la présence d’une racine unitaire:
La statistique est :
(SCR2,c – SCR2)/2
F2 =
SCR2/ (T − 2)
10
où SCR2,c est la somme des carrés des résidus du modèle 2 contraint sous H2
0 et SCR2 est la
somme des carrés des résidus du modèle
2 non contraint (équation 6).
Si F2 est supérieur à la valeur φ1 de la table à un seuil α, on rejette l’hypothèse H2
0 pour ce
seuil. Dans ce cas, le modèle 2 est retenu et la série xt est intégrée d’ordre 1, I (1)+c. Par
contre, si on accepte H2
0 , le coefficient de la constante est nul, le modèle 2 n’est pas le bon,
on doit donc effectuer à nouveau le test de non stationnarité dans le modèle 1.
Enfin, si l’on a accepté la nullité du coefficient c de la constante, on doit alors effectuer à
nouveau les tests de non stationnarité à partir cette fois-ci du modèle 1 (équation 5) sans
constante ni trend. On compare alors la réalisation de la statistique de Student tφ=0 aux seuils
de la table de DICKEY-FULLER ou McKINNON.
Si la réalisation de tφ=0 est supérieure au seuil C1
(α), on accepte l’hypothèse nulle de non
stationnarité. Dans ce cas la série xt est I (1) et correspond à une pure marche aléatoire,
xt = xt−1 + εt.
Si l’hypothèse nulle est rejetée, la série est stationnaire, I (0) de moyenne nulle
xt = ρxt−1 + εt, avec |ρ| < 1.
Critique de ce test:
Il arrive parfois que les résidus εt du modèle de Dickey Fuller soient autocorrélés, les tests
effectués seraient alors faux.
Il existe alors deux approches différentes pour tenir de cette éventuelle autocorrélation.
• La première approche, proposée par PHILLIPS (1987) et PHILLIPS et PERRON
(1988) consiste à proposer une correction des estimateurs des MCO et des statistiques
de Student associées à ces estimateurs prenant en compte la possible autocorrélation
des résidus.
• La seconde approche, développée par DICKEY et FULLER (1979), consiste à
contrôler directement l’autocorrélation dans le modèle (et non au niveau des
estimateurs) en incluant un ou plusieurs termes autorégressifs différenciés. Une telle
approche permet en de ”blanchir” les résidus et se ramener à une représentation
similaire à celle du test de Dickey Fuller Simple. Dès lors, l’application de cette
nouvelle stratégie est identique à celle présentée précédemment et l’on retrouve les
mêmes distributions asymptotiques.
11
6- TEST DE DICKEY-FULLER AUGMENTE, POUR LE CHOMAGE EN FRANCE
L’intuition de la démarche du test de DICKEY FULLER Augmenté (ADF) consiste à postuler
un modèle de type AR(p) afin de corriger une éventuelle autocorrélation d’ordre p − 1 des
innovations d’une représentation de type AR(1), le terme (p) constituant le nombre de retards.
Ainsi, pour un choix de (p) retards, correspondant à une autocorrélation d’ordre p + 1 des
innovations dans une représentation AR(1), les trois modèles utilisés pour développer le test
ADF sont les suivants :
Modèle 1 : Δxt = φxt−1+ ∑p
j=1 ΨjΔxt−j + μt (8)
Modèle 2 : Δxt = φxt−1+ ∑p
j=1 ΨjΔxt−j + c + μt (9)
Modèle 3 : Δxt = φxt−1 + ∑p
j=1 ΨjΔxt−j +c + βt + μt (10)
La stratégie de test ADF consiste dans un premier temps à déterminer le nombre de retards p
nécessaire pour blanchir les résidus. Dans la seconde étape, il suffit d’appliquer la stratégie
séquentielle du test de Dickey Fuller Simple aux modèles (8), (9) et (10). Les distributions
asymptotiques des statistiques de test tφ obtenues dans ces trois modèles sont alors identiques
à celles obtenues dans les modèles de DICKEY- FULLER simple correspondants.
6-1 Choix du nombre optimal de retards (p)
Il existe différentes façons de choisir l’ordre optimal p
∗
des retards dans le modèle des tests
Dickey Fuller Augmentés.
Dans la pratique, on se limite souvent à l’observation des critères d’information et à la
vérification ex-post de l’absence d’autocorrélation des résidus.
Une méthode alternative consiste à observer les autocorrélations partielles de la série
différenciée et de même vérifier ex-post l’absence d’autocorrélation des résidus.
On retiendra comme critères d’information :
Pour un modèle, incluant k paramètres, estimé sur T périodes et dont la réalisation de
l’estimateur de la variance des résidus est σ2
εt le critère d’Akaike, ou AIC, est :
AIC (k) = T log σ2
εt + 2(k)
Le critère de Schwartz (1978) est défini par:
12
SC (k) = T log σ2
εt + k log (T)
On cherche le nombre de retard p qui minimise ces deux critères.
P SBC1 AIC1 SBC2 AIC2 SBC3 AIC3
1 73.133609 69.9117732 70.0566582 65.2239045 72.9399655 66.4962938
2 74.6094855 69.9434413 69.7238828 63.5024906 72.5944336 64.8176933
3 75.3219719 69.3359417 69.2524741 61.7699363 72.3981793 63.419134
4 74.8641724 67.6942364 69.7811809 61.1772577 73.1199641 63.0820536
5 71.9353761 63.7316012 69.2498925 59.6788217 72.616932 61.6785653
Les autocorrélations partielles de la série différenciée apparaissent dans le tableau suivant :
Autocorrélations Partielles
P Corrélation-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 0.29524 | . |****** |
2 -0.12641 | . ***| . |
3 0.11419 | . |** . |
4 -0.23751 | .*****| . |
5 0.06312 | . |* . |
6 0.00406 | . | . |
7 0.03213 | . |* . |
8 -0.15395 | . ***| . |
9 0.05140 | . |* . |
En combinant les informations ainsi obtenues, on retiendra donc un nombre de retards
p∗ = 1.
La procédure séquentielle du test ADF débutera donc par le modèle 3 incluant une constante,
une tendance.
Δxt = φxt−1 + Ψ1Δxt−1 + βt + c+ μt
13
Test de racine unitaire augmenté de Dickey-Fuller
Type Lags Rho Pr < Rho Tau Pr < Tau F Pr > F
Zero Mean
(Modèle 1)
1 0.4389 0.7825 0.64 0.8492
Single Mean
(Modèle 2)
1 -6.6328 0.2732 -2.39 0.1521 3.60 0.1819
Trend
(Modèle 3)
1 -8.7714 0.4747 -2.37 0.3883 3.15 0.5650
La probabilité critique associée au test ADF dans le modèle 3 (incluant une tendance)
(Pr<Tau=0.3883) conduit à accepter l’hypothèse nulle de racine unitaire. On effectue alors le
test conjoint de présence d’une racine unitaire et la nullité du coefficient de la tendance (test
F3) afin de s’assurer que le modèle 3 est le bon.
La probabilité critique du test est (Pr>F=0.5650) conduit à accepter l’hypothèse nulle, on a
bien une racine unitaire et le coefficient de la tendance est nul.
Il faut donc refaire le test de ADF dans le modèle 2 (incluant une constante) : la probabilité
critique du test ADF (Pr<Tau=0.1521) conduit à accepter l’hypothèse nulle de racine
unitaire. On effectue alors le test conjoint de présence d’une racine unitaire et la nullité de la
constante (test F2) afin de s’assurer que le modèle 2 est le bon.
La probabilité critique de ce test (Pr>F=0.1819) conduit à accepter l’hypothèse nulle, on a
bien une racine unitaire et le coefficient de la constante est nul.
On retiendra donc le modèle 1 pour la suite, on a un processus intégré d’ordre 1 sans
tendance et sans constante.
14
7- MODELISATION DU PROCESSUS ET ESTIMATIONS
Les étapes précédentes nous ont permis de conclure quant à la nature du processus aléatoire.
7-1 Représentation graphique de la série différenciée
DUn
-2
-1
0
1
2
t
7-2 Qualification du processus ARMA (p,q)
Rappels
Pour un processus de type AR(p) :
- On peut montrer que la fonction d’autocorrélations (ACF) décroît
exponentiellement vite vers 0 pour un processus de type AR(p).
- La fonction d’autocorrélations partielles (PACF) d’un processus AR(p) est
nulle pour k ≥ p+ 1.
Pour un processus de type MA(q) :
- Pour (r ≥ 0) et Xt étant un MA(q) on peut dire que la fonction
d’autocorrélations (ACF) est quasiment nulle ( ~ 0) quand r ≥ q.
Pour un processus de type ARMA(p,q) :
- Pour un ARMA, les trois fonctions : ACF, PACF et fonction inverse
d’autocorrélations IACF tendent exponentiellement vers 0.
15
Ces différentes notions nous aideront dans notre diagnostique, pour procéder
commençons par représenter ces différentes fonctions avec un nombre de retard fixé à 8.
Autocorrélations
p Covariance Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 Erreur Std
0 0.362992 1.00000 | |********************| 0
1 0.107170 0.29524 | . |****** | 0.162221
2 -0.010244 -.02822 | . *| . | 0.175794
3 0.020278 0.05586 | . |* . | 0.175913
4 -0.055475 -.15283 | . ***| . | 0.176379
5 -0.033180 -.09141 | . **| . | 0.179830
6 0.013977 0.03850 | . |* . | 0.181049
7 0.0052325 0.01442 | . | . | 0.181264
8 -0.034980 -.09636 | . **| . | 0.181294
Autocorrélations Partielles
p Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 0.29524 | . |****** |
2 -0.12641 | . ***| . |
3 0.11419 | . |** . |
4 -0.23751 | .*****| . |
5 0.06312 | . |* . |
6 0.00406 | . | . |
7 0.03213 | . |* . |
8 -0.15395 | . ***| . |
Autocorrélations Inverses
p Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
1 -0.46850 | *********| . |
2 0.30617 | . |****** |
3 -0.30463 | ******| . |
4 0.30543 | . |****** |
5 -0.12443 | . **| . |
6 0.08008 | . |** . |
7 -0.10950 | . **| . |
8 0.11048 | . |** . |
Ces différents résultats nous conduisent à choisir entre un processus AR(1) et un processus
MA(1). Pour statuer, nous allons nous servir du critère à nouveau des critères d’information.
16
Critères d’informations Minimum
p,q MA 0 MA 1 MA 2 MA 3 MA 4 MA 5
AR 0 -1.07995 -1.13668 -1.05828 -1.04695 -1.00659 -0.93032
AR 1 -1.07799 -1.05701 -0.96808 -0.9515 -0.9233 -0.83468
AR 2 -1.01089 -0.97103 -0.87932 -0.86013 -0.84767 -0.75222
AR 3 -1.02105 -0.9485 -0.85509 -0.79513 -0.78014 -0.69909
AR 4 -1.0175 -0.922 -0.82915 -0.73406 -0.70909 -0.61602
AR 5 -0.92254 -0.82741 -0.73733 -0.69119 -0.61722 -0.597
Valeur minimale de la table: BIC(0,1) = -1.13668
Notre choix se portera donc sur un MA(1).
7-3 Estimation du processus MA (q=1)
Nous allons à présent, toujours à l’aide de SAS, estimer notre série. On obtient le tableau
suivant pour les coefficients estimés :
Moving Average Factors
Factor 1: 1 + 0.43404 B**(1)
Test d’autocorrélation pour les résidus
Au retard Chi-Square DF Pr > ChiSq Autocorrélations
6 2.81 5 0.7296 -0.064 -0.055 0.141 -0.185 -0.033 0.038
12 5.58 11 0.9000 0.028 -0.079 -0.064 0.180 -0.026 0.082
18 14.04 17 0.6645 0.106 -0.329 0.045 -0.091 0.040 -0.035
24 18.40 23 0.7353 -0.008 -0.036 -0.096 0.052 -0.146 -0.096
Pour tous les retards considérés dans le tableau, l’hypothèse de bruit blanc est bien retenue
pour la série des résidus du modèle estimé.
7-4 Prévision pour le processus MA (q=1)
Nous allons à présent effectuer la prévision en prenant comme horizon une période (1 an), les
résultats sont présentés dans le tableau et graphique suivants.
Prévisions pour la variable Un
Obs Prévision Std Error
Limite de confiance à
95% Réel Résidu
2 3.4745 0.5815 2.3348 4.6141 3.7000 0.2255
3 3.9724 0.5815 2.8327 5.1120 4.2000 0.2276
4 4.4733 0.5815 3.3336 5.6129 4.3000 -0.1733
5 4.3993 0.5815 3.2596 5.5389 4.9000 0.5007
6 5.2918 0.5815 4.1521 6.4315 5.2000 -0.0918
7 5.3346 0.5815 4.1950 6.4743 6.1000 0.7654
8 6.6067 0.5815 5.4670 7.7463 6.6000 -0.0067
9 6.7716 0.5815 5.6319 7.9112 6.9000 0.1284
17
Prévisions pour la variable Un
Obs Prévision Std Error
Limite de confiance à
95% Réel Résidu
10 7.1302 0.5815 5.9905 8.2699 8.1000 0.9698
11 8.6954 0.5815 7.5557 9.8351 8.6000 -0.0954
12 8.7331 0.5815 7.5934 9.8727 8.6000 -0.1331
13 8.7167 0.5815 7.5770 9.8564 8.8000 0.0833
14 9.0106 0.5815 7.8709 10.1503 8.5000 -0.5106
15 8.4528 0.5815 7.3132 9.5925 7.9000 -0.5528
16 7.8345 0.5815 6.6948 8.9742 7.7000 -0.1345
17 7.8161 0.5815 6.6764 8.9557 7.8000 -0.0161
18 7.9675 0.5815 6.8278 9.1071 8.7000 0.7325
19 9.1924 0.5815 8.0527 10.3321 9.7000 0.5076
20 10.0948 0.5815 8.9551 11.2344 10.3000 0.2052
21 10.5635 0.5815 9.4239 11.7032 9.7000 -0.8635
22 9.4997 0.5815 8.3600 10.6393 10.2000 0.7003
23 10.6784 0.5815 9.5388 11.8181 10.3000 -0.3784
24 10.3102 0.5815 9.1705 11.4499 9.9000 -0.4102
25 9.8964 0.5815 8.7568 11.0361 9.6000 -0.2964
26 9.6458 0.5815 8.5061 10.7855 8.2000 -1.4458
27 7.7469 0.5815 6.6073 8.8866 7.4000 -0.3469
28 7.4239 0.5815 6.2842 8.5635 7.6000 0.1761
29 7.8509 0.5815 6.7112 8.9906 8.2000 0.3491
30 8.5260 0.5815 7.3863 9.6656 8.5000 -0.0260
31 8.6632 0.5815 7.5235 9.8028 8.5000 -0.1632
32 8.6036 0.5815 7.4640 9.7433 8.5000 -0.1036
33 8.6295 0.5815 7.4898 9.7691 7.7000 -0.9295
34 7.4710 0.5815 6.3314 8.6107 7.1000 -0.3710
35 7.1134 0.5815 5.9738 8.2531 8.8000 1.6866
36 9.7065 0.5815 8.5668 10.8462 8.9000 -0.8065
37 8.7244 0.5815 7.5847 9.8641 8.8000 0.0756
38 9.0073 0.5815 7.8676 10.1469 9.5000 0.4927
39 9.8883 0.5815 8.7487 11.0280 9.9000 0.0117
40 10.0795 0.5815 8.9399 11.2192 . .
18
Dans le tableau précédent, la prévision pour l’année suivante (2014) correspond à
l’observation (40), sont reprises également, les bornes supérieures et inférieures de l’intervalle
de confiance à 95 % (bande bleue du graphique).
Le modèle prévoit donc un taux de chômage de 10.0795 % avec un intervalle de confiance à
95% donné par [8.9399 – 11.2192].
19
CONCLUSION
A la vue des tests précédents on peut dire que pour le chômage français, on a à faire à un
processus intégré d’ordre un et de catégorie Difference Stationary.
En utilisant ces résultats, les implications au niveau théorique comme nous l’avons vu c’est
qu’il semble y avoir en France une persistance très forte voir infinie après les chocs qui ont
touché le chômage.
Conclusions à nuancer, dans la mesure où les tests que nous avons utilisés sont soumis à de
nombreuses critiques.
Il serait ensuite très intéressant pour l’analyse de comparer l’évolution conjointe, (en
introduisant le concept de cointégration), du chômage et des salaires et/ou de l’inflation en
France par exemple pour analyser tout lien de causalité ce qui pourrait permettre de conforter
ou d’infirmer certaines théories.
20
BIBLIOGRAPHIE
- ABRAHAM-FROIS (G.), Dynamique économique (6ème
édition), éd. Dalloz,
p 438-456, Paris, 2002
- BEAN (C.R.), European unemployment: A Survey, in Journal of Economic
Literature, vol.32, No. 2, p573-619, juin 1994
- BLANCHARD (O.J.) et SUMMERS (L.H.), Hysteresis in unemployment, in
European Economic Review, vol. 31, p288-295, 1987
- HAIRAULT (J.O.), Analyse macroéconomique 2, éd. La découverte, chap.
22, Paris, 2000
- MITCHELL (W.F.), Testing for unit roots and persistence in O.E.C.D.
unemployment rates, in Applied Economics, vol. 25, p1489-1501, 1993
- ROED (K.), Unemployment Hysteresis – Macro Evidence from 16 O.E.C.D.
Countries, in Empirical Economics, vol. 21, p589-600, 1996
21

Contenu connexe

Similaire à Persistance contre Hystérèse pour les données du chômage en France

8 cycles et fluctuations economiques
8 cycles et fluctuations economiques8 cycles et fluctuations economiques
8 cycles et fluctuations economiquesabelgueli
 
8 cycles et fluctuations economiques
8 cycles et fluctuations economiques8 cycles et fluctuations economiques
8 cycles et fluctuations economiquesgueliapetseh
 
8 cycles et fluctuations economiques
8 cycles et fluctuations economiques8 cycles et fluctuations economiques
8 cycles et fluctuations economiquesgueliabel
 
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent...Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent...christophe da rocha
 
Chap2 tes 2013_diapo_fluctuations_(ph_w)
Chap2 tes 2013_diapo_fluctuations_(ph_w)Chap2 tes 2013_diapo_fluctuations_(ph_w)
Chap2 tes 2013_diapo_fluctuations_(ph_w)Philippe Watrelot
 
MODELES DE PREVISION DE L'INFLATION DANS LES PAYS MEMBRES DE L'UEMOA Er12010
MODELES DE PREVISION DE L'INFLATION DANS LES PAYS MEMBRES DE L'UEMOA Er12010MODELES DE PREVISION DE L'INFLATION DANS LES PAYS MEMBRES DE L'UEMOA Er12010
MODELES DE PREVISION DE L'INFLATION DANS LES PAYS MEMBRES DE L'UEMOA Er12010Amine Khalil
 
The historical Decomposition of the S&P500
The historical Decomposition of the S&P500The historical Decomposition of the S&P500
The historical Decomposition of the S&P500Mamadou Diallo, MSc
 
Chapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxChapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxmelianikholoud
 
Economtrie des donnes de panel (cours et exe)
Economtrie des donnes  de panel (cours et exe)Economtrie des donnes  de panel (cours et exe)
Economtrie des donnes de panel (cours et exe)NoureddineLahouel4
 
Reglatayloreuroner117
Reglatayloreuroner117Reglatayloreuroner117
Reglatayloreuroner117G Garcia
 
Dix ans de transitions professionnelles : un éclairage sur le marché du trava...
Dix ans de transitions professionnelles : un éclairage sur le marché du trava...Dix ans de transitions professionnelles : un éclairage sur le marché du trava...
Dix ans de transitions professionnelles : un éclairage sur le marché du trava...France Stratégie
 
Arbitrage paradigme en finance
Arbitrage paradigme en financeArbitrage paradigme en finance
Arbitrage paradigme en financeAmine Azzaz
 
LES EFFETS ECONOMIQUES DE LA SECURITE SOCIALE MBAREK Ezzeddine.pdf
LES EFFETS ECONOMIQUES DE LA SECURITE SOCIALE MBAREK Ezzeddine.pdfLES EFFETS ECONOMIQUES DE LA SECURITE SOCIALE MBAREK Ezzeddine.pdf
LES EFFETS ECONOMIQUES DE LA SECURITE SOCIALE MBAREK Ezzeddine.pdfezzeddine
 
Trois Essais sur la Stabilité Financière dans la CEMAC
Trois Essais sur la Stabilité Financière dans la CEMAC Trois Essais sur la Stabilité Financière dans la CEMAC
Trois Essais sur la Stabilité Financière dans la CEMAC Université de Dschang
 

Similaire à Persistance contre Hystérèse pour les données du chômage en France (20)

gueli abel
gueli abelgueli abel
gueli abel
 
gueli abel
gueli abelgueli abel
gueli abel
 
8 cycles et fluctuations economiques
8 cycles et fluctuations economiques8 cycles et fluctuations economiques
8 cycles et fluctuations economiques
 
8 cycles et fluctuations economiques
8 cycles et fluctuations economiques8 cycles et fluctuations economiques
8 cycles et fluctuations economiques
 
8 cycles et fluctuations economiques
8 cycles et fluctuations economiques8 cycles et fluctuations economiques
8 cycles et fluctuations economiques
 
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent...Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent...
 
Chap2 tes 2013_diapo_fluctuations_(ph_w)
Chap2 tes 2013_diapo_fluctuations_(ph_w)Chap2 tes 2013_diapo_fluctuations_(ph_w)
Chap2 tes 2013_diapo_fluctuations_(ph_w)
 
MODELES DE PREVISION DE L'INFLATION DANS LES PAYS MEMBRES DE L'UEMOA Er12010
MODELES DE PREVISION DE L'INFLATION DANS LES PAYS MEMBRES DE L'UEMOA Er12010MODELES DE PREVISION DE L'INFLATION DANS LES PAYS MEMBRES DE L'UEMOA Er12010
MODELES DE PREVISION DE L'INFLATION DANS LES PAYS MEMBRES DE L'UEMOA Er12010
 
Essay: Financial stability
Essay: Financial stabilityEssay: Financial stability
Essay: Financial stability
 
Crise25
Crise25Crise25
Crise25
 
The historical Decomposition of the S&P500
The historical Decomposition of the S&P500The historical Decomposition of the S&P500
The historical Decomposition of the S&P500
 
Chapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptxChapitre I - Développements introductifs.pptx
Chapitre I - Développements introductifs.pptx
 
Activites_reduites
Activites_reduitesActivites_reduites
Activites_reduites
 
Microeconomie
MicroeconomieMicroeconomie
Microeconomie
 
Economtrie des donnes de panel (cours et exe)
Economtrie des donnes  de panel (cours et exe)Economtrie des donnes  de panel (cours et exe)
Economtrie des donnes de panel (cours et exe)
 
Reglatayloreuroner117
Reglatayloreuroner117Reglatayloreuroner117
Reglatayloreuroner117
 
Dix ans de transitions professionnelles : un éclairage sur le marché du trava...
Dix ans de transitions professionnelles : un éclairage sur le marché du trava...Dix ans de transitions professionnelles : un éclairage sur le marché du trava...
Dix ans de transitions professionnelles : un éclairage sur le marché du trava...
 
Arbitrage paradigme en finance
Arbitrage paradigme en financeArbitrage paradigme en finance
Arbitrage paradigme en finance
 
LES EFFETS ECONOMIQUES DE LA SECURITE SOCIALE MBAREK Ezzeddine.pdf
LES EFFETS ECONOMIQUES DE LA SECURITE SOCIALE MBAREK Ezzeddine.pdfLES EFFETS ECONOMIQUES DE LA SECURITE SOCIALE MBAREK Ezzeddine.pdf
LES EFFETS ECONOMIQUES DE LA SECURITE SOCIALE MBAREK Ezzeddine.pdf
 
Trois Essais sur la Stabilité Financière dans la CEMAC
Trois Essais sur la Stabilité Financière dans la CEMAC Trois Essais sur la Stabilité Financière dans la CEMAC
Trois Essais sur la Stabilité Financière dans la CEMAC
 

Persistance contre Hystérèse pour les données du chômage en France

  • 1. Persistance contre Hystérèse pour les données du chômage en France Ahmed Pierre SAIZONOU MASTER 2 Ingénierie Economique Université Montesquieu Bordeaux IV 1
  • 2. INTRODUCTION De nombreuses tentatives ont été menées pour rendre compte du caractère cyclique des séries chronologiques en macroéconomie. Les chocs, qui constituent un événement aléatoire venant frapper l’économie, modifient l’environnement des agents. Leurs actions futures en réaction à cette perturbation, feront que les effets du choc se propageront. Ces phénomènes considérés dans leur ensemble induisent donc une véritable dynamique pour l’économie. La distinction faite en macroéconomie entre l’analyse des fluctuations et celle de la croissance, correspond en statistique à la décomposition cycle/tendance, laquelle suppose une non-permanence des chocs. Cette décomposition a cependant été soumise à de nombreuses critiques, suite à des travaux empiriques effectués entre le milieu des années soixante-dix et le milieu des années quatre vingt. Ces travaux tendent à révéler l’existence d’un phénomène de persistance, on ne peut plus ainsi, faire l’hypothèse d’une tendance de long terme sur laquelle les aléas de l’économie n’ont aucun effet. La persistance du chômage en Europe va conduire les économistes à expliquer comment les aléas conjoncturels peuvent avoir un effet permanent sur le niveau du chômage. Une autre distinction se dégage, à savoir la nécessité de différencier la persistance de l’hystérèse. Autrement la nécessité de savoir si, dans l’économie il y a une mémoire infinie des chocs, ou plutôt si le retour à un équilibre, même si le délai est très long, est possible. Pour ce faire, en appliquant ces théories au cadre du chômage français, nous serons amenés à distinguer deux hypothèses fortes. En effet l’hypothèse du taux naturel renvoie à la persistance longue, tandis que celle de l’hystérèse correspond plus à une persistance infinie. En statistique, cette distinction conduit à considérer deux types de processus, les processus ‘‘Trend Stationnary’’ (TS) et les processus ‘’Difference Stationnary’’ (DS). Dans notre étude, nous serons donc amenés dans un premier temps à présenter un cadre historique avant de s’intéresser au cadre théorique ensuite nous présenterons un cadre théorique de référence pour le chômage, à savoir le modèle de BLANCHARD et SUMMERS (1987). Ensuite nous nous intéresserons au test proprement dit de racine unitaire, en présentant aussi toute la controverse qui l’entoure, cela sur les données françaises. Enfin nous conclurons sur les résultats de ce test et les conséquences pour le chômage en France. 1-CADRE HISTORIQUE Le chômage a augmenté tandis que le chômage d’équilibre, estimé à travers la courbe de PHILLIPS a augmenté en tandem. En Europe, le taux dépasse les onze pour cent, si ce n’était la chute du prix du pétrole et la dépréciation du dollar l’inflation serait constante. Autrement dit, le taux de chômage actuel semble être le taux d’équilibre. L’augmentation des deux taux (actuel et d’équilibre) pourrait être expliquée par les chocs, mais toutes les tentatives pour identifier ces chocs de manière empirique ont échoué. 2
  • 3. Le ralentissement de la productivité et l’augmentation des prix du pétrole pourraient expliquer la situation des années 70 mais il y a peu de chocs identifiables pouvant expliquer un doublement du chômage d’équilibre dans les années 80. L’emploi en France est un sujet très important tant au niveau politique que social, quand on tient des nombreuses décisions économiques et politiques visant à réduire le chômage et soumises à de nombreuses controverses. A l’aide des données fournies par l’INSEE nous allons essayer de mettre en évidence pour la France un caractère persistant du chômage. Les données utilisées sont trimestrielles et couvrent la période. Le graphe suivant décrit alors l’allure du chômage en France. 2- CADRE THEORIQUE L’approche dominante pour l’analyse des séries macroéconomiques, consistait en une décomposition cycle/tendance. Une telle décomposition nécessitait l’identification de deux types de processus, à savoir les processus de type ‘‘Trend Stationnary’’ et les processus de type ‘’Difference Stationnary’’. 2.1- Cycle et tendance Une série chronologique a souvent trois composantes : une tendance, une composante cyclique et une composante saisonnière. Pour des séries désaisonnalisées, la dissociation du cycle et de la tendance revêt un double intérêt. 3
  • 4. 2.1.1- Sur le plan économique… Il s’agit de distinguer la composante longue associée à la tendance de la composante transitoire associée au cycle. En somme, on fait l’hypothèse, pour les séries macroéconomiques, d’une tendance de long terme autour de laquelle apparaissent des fluctuations plus ou moins régulières, dont l’impact sur la tendance de long terme est nul. 2.1.2- Sur le plan statistique… Il faut savoir que l’on ne peut travailler que sur des séries stationnaires. C’est à dire des séries avec trois caractéristiques : une espérance ne dépendant pas du temps, une variance et une covariance constantes au cours du temps. La majeure partie des séries chronologiques étant non-stationnaire, avant toute étude, il faut procéder à une stationnarisation, et pour ce faire, on distingue deux méthodes pour les deux cas suivants : le cas des processus stationnaires en tendance et le cas des processus stationnaires en différence. 2.2- Processus TS et processus DS La distinction a été étudiée par NELSON et PLOSSER en 1982. Ils précisent que la macroéconomie sépare une composante croissante non-stationnaire, d’une composante cyclique stationnaire. Cette distinction est effectuée quand on décompose les séries chronologiques en économie. Les perturbations transitoires sont dues à des chocs monétaires, cette représentation étant nommée processus ‘‘Trend Stationnary’’, ou stationnaire en tendance. Les processus ‘’Difference Stationnary’’, ou stationnaire en différence, intégrés, affichent une non-stationnarité qui est, elle, stochastique, et ne présentent donc aucune tendance à retourner automatiquement à un trend déterministe. Les processus DS ne permettent pas d’effectuer des prévisions à long terme basées sur la moyenne des séries. A l’inverse, l’histoire passée du processus TS n’a aucune influence sur sa valeur de long terme. Les valeurs prises par une variable suivant un processus DS résultent de la somme des événements passés. Pour la formalisation, on pourra retenir comme exemple de processus TS un processus avec une tendance linéaire du type : X(t) = μ + βt + ε(t) ε(t) → bb (0,σ²) Comme exemple de processus DS on prendra l’exemple d’une marche aléatoire pure : X(t) = X(t-1) + ε(t) ε(t) → bb (0,σ²) 4
  • 5. La distinction entre les processus TS et DS permet de présenter plus clairement le phénomène d’hystérèse, notamment les hypothèses sous-jacentes, et de l’opposer à la notion de persistance. 2.3- Persistance contre hystérèse La persistance : Un choc transitoire est persistant si, suite à son observation dans l’économie, le mécanisme de propagation implique un délai avant le retour à l’équilibre initial. Plus ce délai de retour à l’équilibre est long, plus le choc est persistant. L’hystérèse : Il y a hystérèse si suite à un choc transitoire dans l’économie le mécanisme de propagation ne permet pas de revenir à l’équilibre initial. On envisage ici que l’économie s’est dirigée vers un nouvel équilibre, la propriété d’unicité de l’équilibre est donc fortement remise en cause. De plus, l’équilibre atteint est conditionné par la somme des événements antérieurs, il y a donc ici une dépendance au sentier. 3- APPLICATION AU CHOMAGE Notre cadre de référence sera ici celui développé par BLACNCHARD et SUMMERS (1987). Les auteurs reviennent sur la dichotomie présente en macroéconomie entre : → Chômage d’équilibre : déterminé sur le marché du travail, il bouge lentement et n’est pas affecté par l’évolution du chômage actuel. → Chômage actuel : diffère du chômage d’équilibre à cause des mouvements inattendus de l’offre et de la demande, l’écart par rapport au taux d’équilibre modifie à son tour le taux d’inflation et ainsi on a un retour vers le taux de chômage d’équilibre. Les auteurs présentent ensuite une illustration, tendant à montrer que le taux de chômage actuel, bien qu’élevé, semble bien être le taux de chômage d’équilibre en Europe. Le but des deux auteurs est d’expliquer la persistance d’un chômage élevé en Europe. Pour ce faire, ils utilisent les deux courants les plus intéressants dans la recherche sur l’hystérèse. Cette recherche étant basée sur l’analyse du marché du travail, plus précisément sur l’étude de la relation entre le chômage et l’établissement des salaires. Ces deux courants sont : - le courant de l’appartenance - le courant de la durée Dans le premier on oppose les ‘‘insiders’’ aux ‘’outsiders’’, l’établissement des salaires dépend plutôt des salariés en exercice plutôt que des chômeurs. Dans le second cas l’accent est mis sur la différence entre les chômeurs à court terme et les chômeurs à long terme, avec comme idée que le chômeur de court terme exerce une pression sur l’établissement des salaires. Dans leur étude, les deux auteurs fixent un certain nombre d’hypothèses comportementales. 3.1- Les firmes Les firmes font face à une demande qui est fonction de la demande agrégée (celle-ci dépendant des encaisses réelles), laquelle quand les prix ne s’ajustent pas, affecte la demande 5
  • 6. globale et l’emploi. Chaque firme a des rendements d’échelle constants, un coût marginal et une élasticité de la demande constants. 3.2- Les insiders Les insiders sont les seuls à être représentés lors des négociations salariales, et sont prioritaires pour l’emploi. Ce pouvoir s’explique par le fait que l’emploi d’un nouveau travailleur serait un coût supérieur pour l’entreprise, ne serai ce que pour la formation de ce dernier. BLANCHARD et SUMMERS supposent que dans chaque firme, le groupe des insiders est assez influent pour établir les salaires de manière unilatérale. Cet établissement se faisant sur la base d’une anticipation de l’emploi égale au nombre des insiders. Les insiders représentés par des syndicats s’assurent ainsi une pérennisation de leurs emplois. En se basant sur une homogénéité des groupes de travailleurs, et sur une nature nominale des chocs, les auteurs précisent que si les syndicats s’occupent uniquement des travailleurs en exercice, on a : n = nt-1 + (m- Em) (1) où : n → emploi à la période actuelle nt-1 → emploi à la période précédente m → masse monétaire ( en nominal) Em → masse monétaire anticipée Il s’agit ainsi d’une marche aléatoire simple, où le terme d’erreur ou innovation résulte d’une mauvaise anticipation ou de fluctuations imprévues de la masse monétaire. Donc avec toutes les implications vues précédemment, on peut dire qu’il n’y aura aucune tendance dans l’emploi à un retour vers une situation d’équilibre. Les auteurs poursuivent en précisant qu’à la suite d’un choc négatif sur l’emploi, les travailleurs en exercice n’ont aucune intention de réduire le salaire nominal afin d’augmenter l’emploi. A la suite d’un choc positif sur l’emploi, des outsiders sont maintenant employés, et ils n’ont pas intérêt à exercer une pression à la hausse sur les salaires, cela afin de conserver leur emploi. 3.3- Les outsiders L’hypothèse faite plutôt selon laquelle les outsiders n’ont aucune influence sur l’établissement des salaires est trop forte. Les auteurs précisent qu’à travers le jeu de la concurrence, les nouvelles firmes qui emploient des outsiders peuvent pousser les insiders dans les firmes préexistantes, à accepter une réduction de leurs salaires pour que l’entreprise réduise ses coûts et reste compétitive. D’autres considérations sont à prendre en compte pour illustrer l’influence des outsiders : → Plus le chômage est important, plus la probabilité d’être employé est faible et là le pouvoir de négociation des salaires bascule en faveur des firmes. 6
  • 7. → En situation de chômage fort, remplacer les insiders par des outsiders qui accepteraient un salaire plus faible serait une tentation forte pour la firme. Cependant on doit prendre en compte le fait que des conflits au sein de l’entreprise entre les insiders et les outsiders récemment employés puissent être des sources de coûts supplémentaires. De plus l’option de remplacement de toute la main d’œuvre n’est pas envisageable, simplement à cause de la spécificité de cette dernière et donc du coût et du délai que cela représenterait. En tenant compte de ces nouvelles hypothèses on arrive à : 1 n- n* = ———— [ nt-1 – n*] + (m – Em) (2) 1 + b où: n*→ population active totale b > 0 On a maintenant à faire à un processus du premier ordre pour décrire l’évolution de l’emploi. Si (n*) est stable dans le temps, le chômage suit à peu prés un processus auto régressif d’ordre un. Si (b) est égal à zéro, on se retrouve dans le cas précédent où l’emploi suit une marche aléatoire. Quand (b) augmente, le degré de persistance tel que nous l’avons décrit plus haut, diminue. 3.4- La durée du chômage Ce modèle correspond à une position intermédiaire par rapport aux deux situations précédentes. En effet, ici l’accent est mis sur le fait que seuls les chômeurs à court terme exercent une pression à la baisse sur les salaires. Les travaux empiriques de LAYARD et NICKELL (1986) confortent cette hypothèse en précisant que pour le Royaume Uni l’effet des chômeurs à long terme sur l’établissement des salaires est très faible. D’autres faits tendent à prouver que l’influence des chômeurs à court terme est plus importante. On peut par exemple se dire que plus la durée du chômage est importante, plus la productivité est faible, car on a perdu la plupart des aptitudes requises. On peut aussi tenir compte du salaire de réservation, en supposant qu’il diminue avec la durée du chômage, on retrouve aussi le fameux arbitrage entre loisir et recherche active d’un emploi (sous réserve qu’il existe des aides financières pour les chômeurs). Les auteurs posent l’hypothèse selon laquelle le chômage de court terme est assimilable aux changements dans la structure du chômage. De plus ils supposent que la pression sur les salaires de la part des outsiders ne dépend pas du chômage dans sa globalité, mais plutôt du chômage de court terme anticipé. Ainsi si on maintient l’hypothèse selon laquelle les syndicats ne s’occupent que des travailleurs déjà en poste on retrouve l’égalité (1) : n = nt-1 + (m- Em) 7
  • 8. On retrouve ainsi le résultat de départ, une marche aléatoire, cependant ici on tient compte du comportement des insiders et de l’influence des chômeurs de court terme. Pour conclure sur ces différents modèles les auteurs mettent le doigt sur la nécessité d’envisager des structures de négociation plus complexes. Ils proposent aussi de tenir compte des disparités sectorielles pour ce qui est de l’établissement des salaires. Quant à la politique économique, on aboutit à des résultats différents de ceux des théories niant l’influence du chômage actuel sur le chômage d’équilibre. Dans le cas de l’Europe, le taux de chômage devrait rester élevé, toute politique tendant à réduire le taux actuel, réduirait aussi le chômage d’équilibre. 4- TEST D’UNE RACINE UNITAIRE Il s ‘agit d’un test souvent utilisé pour identifier la nature du processus et donc l’existence ou non de persistance. Cependant ces tests sont soumis à de nombreuses critiques : - MANKIW et CAMPBELL (1987) Ils précisent que la présence d’une racine unitaire est compatible avec une persistance faible ou élevée. Pour eux, la présence d’une racine unitaire est une condition nécessaire mais pas suffisante pour la persistance. - COCHRANE (1988) Il opère à une remise en cause de l’article de NELSON et PLOSSER, la distinction court terme long terme est maintenue. Quand on a à faire à une marche aléatoire X(t), la grandeur se présente sous la forme de: Var [X(t) – X(t-k)] (3) La grandeur va alors croître avec (k) tandis que dans le cas d’un processus TS cette grandeur est indépendante de (k). Pour les processus auto régressifs de type : X(t) = αX(t-1) + ε(t) (4) COCHRANE insiste surtout sur la nécessité de distinguer les cas où α = 0,95 ou α = 0,99 de ceux où α = 1. Le premier cas suggérant une mémoire certes longue, mais pas infinie, alors que le deuxième renvoie plutôt à l’hypothèse de l’existence d’une racine unitaire et donc d’hystérèse. - PERRON (1989) Il remet aussi en cause les idées de NELSON et PLOSSER, en niant la présence de racines unitaires dans les séries chronologiques macroéconomiques, il penche donc pour des phénomènes transitoires. Pour lui seuls la crise de 1929 et le choc pétrolier de 1973 ont eu des effets permanents. La crise, à travers un changement de l’ordonnée à l’origine de la tendance déterministe et le choc pétrolier à travers un changement de pente de cette même tendance. PERRON 8
  • 9. remet surtout en cause le test de racine unitaire de DICKEY et FULLER, en prenant comme exemple un processus TS pour lequel il y a un changement dans la tendance au milieu de l’échantillon. Il montre qu'on conclut à tort à l’existence d’une tendance stochastique ! Notre démarche pour tester la présence ou non d’une racine unitaire, dans la série du chômage français suivra la méthode de DICKEY et FULLER. Nous allons plus précisément effectuer un test joint mené à partir de trois régressions. 5- MISE EN ŒUVRE DU TEST DE DICKEY-FULLER Nous allons à présent proposer une stratégie de tests de DICKEY-FULLER permettant de tester la non stationnarité conditionnellement à la spécification du modèle utilisé. On considère trois modèles définis comme suit : Modèle 1 : Δxt = φxt−1 + εt (5) Modèle 2 : Δxt = φxt−1 + c + εt (6) Modèle 3 : Δxt = φxt−1 + c + βt + εt (7) avec εt i.i.d. (0, σ2 ). On cherche à tester l’hypothèse de racine unitaire : H0 : φ = 0 H1 : φ < 0 On commence par tester la racine unitaire à partir du modèle le plus général, à savoir le modèle 3. On compare la réalisation de la statistique de Student t􀁥 φ=0 aux seuils C3 (α) tabulés par DICKEY et FULLER, ou McKINNON pour le modèle 3 (par exemple −3.41 à 5%, pour T → ∞). Si la réalisation de t φ=0 est supérieure au seuil C3 (α), on accepte l’hypothèse nulle de non stationnarité. Une fois que le diagnostic est établi, on cherche à vérifier si la spécification du modèle 3, incluant une constante et un trend, était une spécification compatible avec les données. On teste alors la nullité du coefficient β de la tendance. Deux choses l’une : • Soit on a rejeté au préalable l’hypothèse de racine unitaire, dans ce cas on teste la nullité de β par un simple test de Student avec des seuils standards (test symétrique, donc seuil de 1.96 à 5%). Si l’on rejette l’hypothèse β = 0, cela signifie que le modèle 3 est retenu pour tester la racine unitaire, puisque la présence d’une tendance n’est pas rejetée. Dans ce cas, on conclut que la racine unitaire est rejetée, la série est TS, du fait de la présence de la tendance. Cependant, si l’on accepte l’hypothèse β = 0, le modèle n’est pas adapté puisque la présence d’une tendance est rejetée. On doit refaire le test de racine unitaire à partir du modèle 2, qui ne comprend qu’une constante. • Soit, au contraire, on avait au préalable, accepté l’hypothèse de racine unitaire, et dans ce cas, on doit construire un test de Fischer de l’hypothèse jointe φ = 0 et β = 0. On teste ainsi la nullité de la tendance, conditionnellement à la présence d’une racine unitaire: H3 0 : (c; b; φ) = (c; 0; 0) contre H3 1 9
  • 10. La statistique de ce test se construit de façon standard par la relation : (SCR3,c − SCR3)/2 F3 = SCR3/ (T − 3) où SCR3,c est la somme des carrés des résidus du modèle 3 contraint sous H3 0 : Δxt = c + εt et SCR3 est la somme des carrés des résidus du modèle 3 non contraint (équation 7) Si F3 est supérieur à la valeur φ3 lue dans la table de DICKEY ET FULLER à un seuil α%, on rejette l’hypothèse H3 0 . Dans ce cas, le modèle 3 est retenu et la série xt est intégrée d’ordre 1. Par contre, si l’on accepte H3 0 , le coefficient de la tendance est nul, le modèle 3 n’est pas le ”bon” modèle, on doit donc effectuer à nouveau le test de non stationnarité dans le modèle 2. Si l’on a accepté la nullité du coefficient β de la tendance, on doit alors effectuer à nouveau les tests de non stationnarité à partir cette fois-ci du modèle 2 (équation 6) incluant uniquement une constante. On compare alors la réalisation de la statistique de Student tφ=0 aux seuils C2 (α) dans la DICKEY et FULLER, ou MckINNON pour le modèle 2. Si la réalisation de t φ=0 est supérieure au seuil C2 (α), on accepte l’hypothèse nulle de non stationnarité. Une fois que le diagnostic est établi, on cherche à vérifier si le modèle 2, incluant une constante, est une compatible avec les données. On teste alors la nullité du coefficient c de la constante. Deux choses l’une : • Soit on a rejeté au préalable l’hypothèse de racine unitaire, dans ce cas on teste la nullité de c par un simple test de Student avec des seuils standard. Si on rejette l’hypothèse c = 0, on retiendra le modèle 2 pour tester la racine unitaire, puisque la présence d’une constante n’est pas rejetée. Dans ce cas, on conclut que la racine unitaire est rejetée, la série est stationnaire I (0) + c. En revanche, si l’on accepte l’hypothèse c = 0, le modèle 2 n’est pas adapté puisque la présence d’une constante est rejetée. On doit refaire le test de racine unitaire à partir du modèle 1, qui ne comprend ni constante ni trend. • Soit, au contraire, on avait au préalable, accepté l’hypothèse de racine unitaire, et dans ce cas, on doit construire un test de Fischer de l’hypothèse jointe φ = 0 et c = 0. On teste ainsi la nullité de la constante, conditionnellement à la présence d’une racine unitaire: La statistique est : (SCR2,c – SCR2)/2 F2 = SCR2/ (T − 2) 10
  • 11. où SCR2,c est la somme des carrés des résidus du modèle 2 contraint sous H2 0 et SCR2 est la somme des carrés des résidus du modèle 2 non contraint (équation 6). Si F2 est supérieur à la valeur φ1 de la table à un seuil α, on rejette l’hypothèse H2 0 pour ce seuil. Dans ce cas, le modèle 2 est retenu et la série xt est intégrée d’ordre 1, I (1)+c. Par contre, si on accepte H2 0 , le coefficient de la constante est nul, le modèle 2 n’est pas le bon, on doit donc effectuer à nouveau le test de non stationnarité dans le modèle 1. Enfin, si l’on a accepté la nullité du coefficient c de la constante, on doit alors effectuer à nouveau les tests de non stationnarité à partir cette fois-ci du modèle 1 (équation 5) sans constante ni trend. On compare alors la réalisation de la statistique de Student tφ=0 aux seuils de la table de DICKEY-FULLER ou McKINNON. Si la réalisation de tφ=0 est supérieure au seuil C1 (α), on accepte l’hypothèse nulle de non stationnarité. Dans ce cas la série xt est I (1) et correspond à une pure marche aléatoire, xt = xt−1 + εt. Si l’hypothèse nulle est rejetée, la série est stationnaire, I (0) de moyenne nulle xt = ρxt−1 + εt, avec |ρ| < 1. Critique de ce test: Il arrive parfois que les résidus εt du modèle de Dickey Fuller soient autocorrélés, les tests effectués seraient alors faux. Il existe alors deux approches différentes pour tenir de cette éventuelle autocorrélation. • La première approche, proposée par PHILLIPS (1987) et PHILLIPS et PERRON (1988) consiste à proposer une correction des estimateurs des MCO et des statistiques de Student associées à ces estimateurs prenant en compte la possible autocorrélation des résidus. • La seconde approche, développée par DICKEY et FULLER (1979), consiste à contrôler directement l’autocorrélation dans le modèle (et non au niveau des estimateurs) en incluant un ou plusieurs termes autorégressifs différenciés. Une telle approche permet en de ”blanchir” les résidus et se ramener à une représentation similaire à celle du test de Dickey Fuller Simple. Dès lors, l’application de cette nouvelle stratégie est identique à celle présentée précédemment et l’on retrouve les mêmes distributions asymptotiques. 11
  • 12. 6- TEST DE DICKEY-FULLER AUGMENTE, POUR LE CHOMAGE EN FRANCE L’intuition de la démarche du test de DICKEY FULLER Augmenté (ADF) consiste à postuler un modèle de type AR(p) afin de corriger une éventuelle autocorrélation d’ordre p − 1 des innovations d’une représentation de type AR(1), le terme (p) constituant le nombre de retards. Ainsi, pour un choix de (p) retards, correspondant à une autocorrélation d’ordre p + 1 des innovations dans une représentation AR(1), les trois modèles utilisés pour développer le test ADF sont les suivants : Modèle 1 : Δxt = φxt−1+ ∑p j=1 ΨjΔxt−j + μt (8) Modèle 2 : Δxt = φxt−1+ ∑p j=1 ΨjΔxt−j + c + μt (9) Modèle 3 : Δxt = φxt−1 + ∑p j=1 ΨjΔxt−j +c + βt + μt (10) La stratégie de test ADF consiste dans un premier temps à déterminer le nombre de retards p nécessaire pour blanchir les résidus. Dans la seconde étape, il suffit d’appliquer la stratégie séquentielle du test de Dickey Fuller Simple aux modèles (8), (9) et (10). Les distributions asymptotiques des statistiques de test tφ obtenues dans ces trois modèles sont alors identiques à celles obtenues dans les modèles de DICKEY- FULLER simple correspondants. 6-1 Choix du nombre optimal de retards (p) Il existe différentes façons de choisir l’ordre optimal p ∗ des retards dans le modèle des tests Dickey Fuller Augmentés. Dans la pratique, on se limite souvent à l’observation des critères d’information et à la vérification ex-post de l’absence d’autocorrélation des résidus. Une méthode alternative consiste à observer les autocorrélations partielles de la série différenciée et de même vérifier ex-post l’absence d’autocorrélation des résidus. On retiendra comme critères d’information : Pour un modèle, incluant k paramètres, estimé sur T périodes et dont la réalisation de l’estimateur de la variance des résidus est σ2 εt le critère d’Akaike, ou AIC, est : AIC (k) = T log σ2 εt + 2(k) Le critère de Schwartz (1978) est défini par: 12
  • 13. SC (k) = T log σ2 εt + k log (T) On cherche le nombre de retard p qui minimise ces deux critères. P SBC1 AIC1 SBC2 AIC2 SBC3 AIC3 1 73.133609 69.9117732 70.0566582 65.2239045 72.9399655 66.4962938 2 74.6094855 69.9434413 69.7238828 63.5024906 72.5944336 64.8176933 3 75.3219719 69.3359417 69.2524741 61.7699363 72.3981793 63.419134 4 74.8641724 67.6942364 69.7811809 61.1772577 73.1199641 63.0820536 5 71.9353761 63.7316012 69.2498925 59.6788217 72.616932 61.6785653 Les autocorrélations partielles de la série différenciée apparaissent dans le tableau suivant : Autocorrélations Partielles P Corrélation-1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 0.29524 | . |****** | 2 -0.12641 | . ***| . | 3 0.11419 | . |** . | 4 -0.23751 | .*****| . | 5 0.06312 | . |* . | 6 0.00406 | . | . | 7 0.03213 | . |* . | 8 -0.15395 | . ***| . | 9 0.05140 | . |* . | En combinant les informations ainsi obtenues, on retiendra donc un nombre de retards p∗ = 1. La procédure séquentielle du test ADF débutera donc par le modèle 3 incluant une constante, une tendance. Δxt = φxt−1 + Ψ1Δxt−1 + βt + c+ μt 13
  • 14. Test de racine unitaire augmenté de Dickey-Fuller Type Lags Rho Pr < Rho Tau Pr < Tau F Pr > F Zero Mean (Modèle 1) 1 0.4389 0.7825 0.64 0.8492 Single Mean (Modèle 2) 1 -6.6328 0.2732 -2.39 0.1521 3.60 0.1819 Trend (Modèle 3) 1 -8.7714 0.4747 -2.37 0.3883 3.15 0.5650 La probabilité critique associée au test ADF dans le modèle 3 (incluant une tendance) (Pr<Tau=0.3883) conduit à accepter l’hypothèse nulle de racine unitaire. On effectue alors le test conjoint de présence d’une racine unitaire et la nullité du coefficient de la tendance (test F3) afin de s’assurer que le modèle 3 est le bon. La probabilité critique du test est (Pr>F=0.5650) conduit à accepter l’hypothèse nulle, on a bien une racine unitaire et le coefficient de la tendance est nul. Il faut donc refaire le test de ADF dans le modèle 2 (incluant une constante) : la probabilité critique du test ADF (Pr<Tau=0.1521) conduit à accepter l’hypothèse nulle de racine unitaire. On effectue alors le test conjoint de présence d’une racine unitaire et la nullité de la constante (test F2) afin de s’assurer que le modèle 2 est le bon. La probabilité critique de ce test (Pr>F=0.1819) conduit à accepter l’hypothèse nulle, on a bien une racine unitaire et le coefficient de la constante est nul. On retiendra donc le modèle 1 pour la suite, on a un processus intégré d’ordre 1 sans tendance et sans constante. 14
  • 15. 7- MODELISATION DU PROCESSUS ET ESTIMATIONS Les étapes précédentes nous ont permis de conclure quant à la nature du processus aléatoire. 7-1 Représentation graphique de la série différenciée DUn -2 -1 0 1 2 t 7-2 Qualification du processus ARMA (p,q) Rappels Pour un processus de type AR(p) : - On peut montrer que la fonction d’autocorrélations (ACF) décroît exponentiellement vite vers 0 pour un processus de type AR(p). - La fonction d’autocorrélations partielles (PACF) d’un processus AR(p) est nulle pour k ≥ p+ 1. Pour un processus de type MA(q) : - Pour (r ≥ 0) et Xt étant un MA(q) on peut dire que la fonction d’autocorrélations (ACF) est quasiment nulle ( ~ 0) quand r ≥ q. Pour un processus de type ARMA(p,q) : - Pour un ARMA, les trois fonctions : ACF, PACF et fonction inverse d’autocorrélations IACF tendent exponentiellement vers 0. 15
  • 16. Ces différentes notions nous aideront dans notre diagnostique, pour procéder commençons par représenter ces différentes fonctions avec un nombre de retard fixé à 8. Autocorrélations p Covariance Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 Erreur Std 0 0.362992 1.00000 | |********************| 0 1 0.107170 0.29524 | . |****** | 0.162221 2 -0.010244 -.02822 | . *| . | 0.175794 3 0.020278 0.05586 | . |* . | 0.175913 4 -0.055475 -.15283 | . ***| . | 0.176379 5 -0.033180 -.09141 | . **| . | 0.179830 6 0.013977 0.03850 | . |* . | 0.181049 7 0.0052325 0.01442 | . | . | 0.181264 8 -0.034980 -.09636 | . **| . | 0.181294 Autocorrélations Partielles p Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 0.29524 | . |****** | 2 -0.12641 | . ***| . | 3 0.11419 | . |** . | 4 -0.23751 | .*****| . | 5 0.06312 | . |* . | 6 0.00406 | . | . | 7 0.03213 | . |* . | 8 -0.15395 | . ***| . | Autocorrélations Inverses p Corrélation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1 1 -0.46850 | *********| . | 2 0.30617 | . |****** | 3 -0.30463 | ******| . | 4 0.30543 | . |****** | 5 -0.12443 | . **| . | 6 0.08008 | . |** . | 7 -0.10950 | . **| . | 8 0.11048 | . |** . | Ces différents résultats nous conduisent à choisir entre un processus AR(1) et un processus MA(1). Pour statuer, nous allons nous servir du critère à nouveau des critères d’information. 16
  • 17. Critères d’informations Minimum p,q MA 0 MA 1 MA 2 MA 3 MA 4 MA 5 AR 0 -1.07995 -1.13668 -1.05828 -1.04695 -1.00659 -0.93032 AR 1 -1.07799 -1.05701 -0.96808 -0.9515 -0.9233 -0.83468 AR 2 -1.01089 -0.97103 -0.87932 -0.86013 -0.84767 -0.75222 AR 3 -1.02105 -0.9485 -0.85509 -0.79513 -0.78014 -0.69909 AR 4 -1.0175 -0.922 -0.82915 -0.73406 -0.70909 -0.61602 AR 5 -0.92254 -0.82741 -0.73733 -0.69119 -0.61722 -0.597 Valeur minimale de la table: BIC(0,1) = -1.13668 Notre choix se portera donc sur un MA(1). 7-3 Estimation du processus MA (q=1) Nous allons à présent, toujours à l’aide de SAS, estimer notre série. On obtient le tableau suivant pour les coefficients estimés : Moving Average Factors Factor 1: 1 + 0.43404 B**(1) Test d’autocorrélation pour les résidus Au retard Chi-Square DF Pr > ChiSq Autocorrélations 6 2.81 5 0.7296 -0.064 -0.055 0.141 -0.185 -0.033 0.038 12 5.58 11 0.9000 0.028 -0.079 -0.064 0.180 -0.026 0.082 18 14.04 17 0.6645 0.106 -0.329 0.045 -0.091 0.040 -0.035 24 18.40 23 0.7353 -0.008 -0.036 -0.096 0.052 -0.146 -0.096 Pour tous les retards considérés dans le tableau, l’hypothèse de bruit blanc est bien retenue pour la série des résidus du modèle estimé. 7-4 Prévision pour le processus MA (q=1) Nous allons à présent effectuer la prévision en prenant comme horizon une période (1 an), les résultats sont présentés dans le tableau et graphique suivants. Prévisions pour la variable Un Obs Prévision Std Error Limite de confiance à 95% Réel Résidu 2 3.4745 0.5815 2.3348 4.6141 3.7000 0.2255 3 3.9724 0.5815 2.8327 5.1120 4.2000 0.2276 4 4.4733 0.5815 3.3336 5.6129 4.3000 -0.1733 5 4.3993 0.5815 3.2596 5.5389 4.9000 0.5007 6 5.2918 0.5815 4.1521 6.4315 5.2000 -0.0918 7 5.3346 0.5815 4.1950 6.4743 6.1000 0.7654 8 6.6067 0.5815 5.4670 7.7463 6.6000 -0.0067 9 6.7716 0.5815 5.6319 7.9112 6.9000 0.1284 17
  • 18. Prévisions pour la variable Un Obs Prévision Std Error Limite de confiance à 95% Réel Résidu 10 7.1302 0.5815 5.9905 8.2699 8.1000 0.9698 11 8.6954 0.5815 7.5557 9.8351 8.6000 -0.0954 12 8.7331 0.5815 7.5934 9.8727 8.6000 -0.1331 13 8.7167 0.5815 7.5770 9.8564 8.8000 0.0833 14 9.0106 0.5815 7.8709 10.1503 8.5000 -0.5106 15 8.4528 0.5815 7.3132 9.5925 7.9000 -0.5528 16 7.8345 0.5815 6.6948 8.9742 7.7000 -0.1345 17 7.8161 0.5815 6.6764 8.9557 7.8000 -0.0161 18 7.9675 0.5815 6.8278 9.1071 8.7000 0.7325 19 9.1924 0.5815 8.0527 10.3321 9.7000 0.5076 20 10.0948 0.5815 8.9551 11.2344 10.3000 0.2052 21 10.5635 0.5815 9.4239 11.7032 9.7000 -0.8635 22 9.4997 0.5815 8.3600 10.6393 10.2000 0.7003 23 10.6784 0.5815 9.5388 11.8181 10.3000 -0.3784 24 10.3102 0.5815 9.1705 11.4499 9.9000 -0.4102 25 9.8964 0.5815 8.7568 11.0361 9.6000 -0.2964 26 9.6458 0.5815 8.5061 10.7855 8.2000 -1.4458 27 7.7469 0.5815 6.6073 8.8866 7.4000 -0.3469 28 7.4239 0.5815 6.2842 8.5635 7.6000 0.1761 29 7.8509 0.5815 6.7112 8.9906 8.2000 0.3491 30 8.5260 0.5815 7.3863 9.6656 8.5000 -0.0260 31 8.6632 0.5815 7.5235 9.8028 8.5000 -0.1632 32 8.6036 0.5815 7.4640 9.7433 8.5000 -0.1036 33 8.6295 0.5815 7.4898 9.7691 7.7000 -0.9295 34 7.4710 0.5815 6.3314 8.6107 7.1000 -0.3710 35 7.1134 0.5815 5.9738 8.2531 8.8000 1.6866 36 9.7065 0.5815 8.5668 10.8462 8.9000 -0.8065 37 8.7244 0.5815 7.5847 9.8641 8.8000 0.0756 38 9.0073 0.5815 7.8676 10.1469 9.5000 0.4927 39 9.8883 0.5815 8.7487 11.0280 9.9000 0.0117 40 10.0795 0.5815 8.9399 11.2192 . . 18
  • 19. Dans le tableau précédent, la prévision pour l’année suivante (2014) correspond à l’observation (40), sont reprises également, les bornes supérieures et inférieures de l’intervalle de confiance à 95 % (bande bleue du graphique). Le modèle prévoit donc un taux de chômage de 10.0795 % avec un intervalle de confiance à 95% donné par [8.9399 – 11.2192]. 19
  • 20. CONCLUSION A la vue des tests précédents on peut dire que pour le chômage français, on a à faire à un processus intégré d’ordre un et de catégorie Difference Stationary. En utilisant ces résultats, les implications au niveau théorique comme nous l’avons vu c’est qu’il semble y avoir en France une persistance très forte voir infinie après les chocs qui ont touché le chômage. Conclusions à nuancer, dans la mesure où les tests que nous avons utilisés sont soumis à de nombreuses critiques. Il serait ensuite très intéressant pour l’analyse de comparer l’évolution conjointe, (en introduisant le concept de cointégration), du chômage et des salaires et/ou de l’inflation en France par exemple pour analyser tout lien de causalité ce qui pourrait permettre de conforter ou d’infirmer certaines théories. 20
  • 21. BIBLIOGRAPHIE - ABRAHAM-FROIS (G.), Dynamique économique (6ème édition), éd. Dalloz, p 438-456, Paris, 2002 - BEAN (C.R.), European unemployment: A Survey, in Journal of Economic Literature, vol.32, No. 2, p573-619, juin 1994 - BLANCHARD (O.J.) et SUMMERS (L.H.), Hysteresis in unemployment, in European Economic Review, vol. 31, p288-295, 1987 - HAIRAULT (J.O.), Analyse macroéconomique 2, éd. La découverte, chap. 22, Paris, 2000 - MITCHELL (W.F.), Testing for unit roots and persistence in O.E.C.D. unemployment rates, in Applied Economics, vol. 25, p1489-1501, 1993 - ROED (K.), Unemployment Hysteresis – Macro Evidence from 16 O.E.C.D. Countries, in Empirical Economics, vol. 21, p589-600, 1996 21