+ All Categories
Home > Documents > econometrie.pdf

econometrie.pdf

Date post: 15-Oct-2015
Category:
Upload: samirnet
View: 52 times
Download: 2 times
Share this document with a friend
Popular Tags:

of 113

Transcript
  • Economtrie applique

    Matrisesciences conomiques

    Cours deClaude Meidinger

  • Whenever you can, count.Galton (1822-1911)

    2

  • Table des matires

    1 La rgression linaire 51.1 Le principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2 Interprtation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

    1.2.1 Rgression linaire simple . . . . . . . . . . . . . . . . . 71.2.2 Regression linaire multiple . . . . . . . . . . . . . . . . 8

    1.3 Mesure (descriptive) de la qualit de lajustement linaire . . . . . 91.3.1 Trois concepts diffrents de la variation de y . . . . . . . 91.3.2 Mesure de la qualit de lajustement linaire . . . . . . . 10

    1.4 Une illustration . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.5 La multicolinarit . . . . . . . . . . . . . . . . . . . . . . . . . 141.6 Complments mathmatiques . . . . . . . . . . . . . . . . . . . . 16

    1.6.1 Reprsentation gomtrique . . . . . . . . . . . . . . . . 161.6.2 Projection et qualit de lestimation . . . . . . . . . . . . 17

    2 Estimation des paramtres et tests dhypothses.Principes gnraux 232.1 Estimation : relations entre les coefficient de rgression et les pa-

    ramtres thoriques . . . . . . . . . . . . . . . . . . . . . . . . . 252.1.1 Le principe . . . . . . . . . . . . . . . . . . . . . . . . . 252.1.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . 28

    2.2 Les tests dhypothses . . . . . . . . . . . . . . . . . . . . . . . 332.2.1 Test de lhypothse c = 0 : F global . . . . . . . . . . . 342.2.2 Test de lhypothse k = 0 : t-test . . . . . . . . . . . . . 36

    3 Tests de restriction linaires et variables muettes 393.1 Tests de restriction linaires sur les paramtres du modle . . . . . 39

    3.1.1 Approche gnrale . . . . . . . . . . . . . . . . . . . . . 393.1.2 Applications : tests de changement structurel . . . . . . . 44

    3.2 Complments . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473.2.1 Les variables muettes . . . . . . . . . . . . . . . . . . . . 473.2.2 Modalits dutilisation des variables indicatrices . . . . . 47

    3

  • TABLE DES MATIRES

    4 Les moindres carrs gnraliss : Htroscdasticit et Autocorrla-tion 534.1 Le principe des MCG . . . . . . . . . . . . . . . . . . . . . . . . 534.2 Htroscdasticit . . . . . . . . . . . . . . . . . . . . . . . . . . 55

    4.2.1 Les tests . . . . . . . . . . . . . . . . . . . . . . . . . . . 564.2.2 Les remdes . . . . . . . . . . . . . . . . . . . . . . . . 57

    4.3 LAutocorrlation . . . . . . . . . . . . . . . . . . . . . . . . . . 594.3.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . 594.3.2 Les tests dautocorrlation AR(1) : t = t1 + ut . . . . 614.3.3 Les remdes . . . . . . . . . . . . . . . . . . . . . . . . 63

    4.4 Complments mathmatiques . . . . . . . . . . . . . . . . . . . . 66

    5 Endognit et variables instrumentales 695.1 Endognit des rgresseurs . . . . . . . . . . . . . . . . . . . . 69

    5.1.1 Les sources de lendognit . . . . . . . . . . . . . . . . 695.2 Correction des biais : la mthode des variables instrumentales . . . 725.3 Lidentification . . . . . . . . . . . . . . . . . . . . . . . . . . . 755.4 Suridentification et doubles moindres carrs . . . . . . . . . . . . 785.5 Complments Mathmatiques . . . . . . . . . . . . . . . . . . . 81

    5.5.1 En rgression simple . . . . . . . . . . . . . . . . . . . . 815.5.2 En rgression multiple . . . . . . . . . . . . . . . . . . . 83

    A Rappels dalgbre linaire 87

    B Tables statistiques 93

    C Introduction la thorie des probabilits 99

    D Faire des rgressions sous Excel 103D.1 Effectuer une rgression . . . . . . . . . . . . . . . . . . . . . . 104D.2 Les rsultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

    E Introduction Stata 107E.1 Dbuter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108E.2 Le code . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109E.3 Les rsultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

    4

  • Chapitre 1

    La rgression linaire

    1.1 Le principeUne tude conomtrique cest : un ensemble de propositions concernant certains aspects de lconomie

    spcifie des relations entre certaines variables : modle une investigation empirique destine fournir des informations sur les pa-

    ramtres des relations fonctionnelles (estimation) et sur la validit de cesrelations (tests)

    Pour le moment : le modle linaire exprime une variable dpendante y commefonction de une ou plusieurs variables indpendantes x1, ..., xk, ..., xK .

    exemple 1 : (Pindick et Rubinfeld 1999)5 variables : loyer (LOY ER), nombre de personnes (NBREpers), nombre

    de chambre (NBREch), sexe (Sexe) et distance entre appartement et campus(DIST ).Ajustement ou regression linaire de LOY ER sur les 4 autres variables :

    (1.1) LOY ER = 1 + 2NBREpers+ 3NBREch+ 4Sexe+ 5DIST

    qui est du genre :

    y = 1x1 + 2x2 + 3x3 + 4x4 + 5x5

    avec x1 :variable constante, prenant toujours la valeur 1, do : y = 1+5k=1 kxkSil ny a quune seule variable explicative (en plus de la constante) on a une r-gression linaire simple, autrement il sagit dune rgression linaire multiple.

    exemple 2 (Pindick et Rubinfeld 1999) : dpenses trimestrielles en voituresneuves (DeV oitN ) et salaires trimestriels (Salaires) (Ex3-3)

    5

  • CHAPITRE 1. LA RGRESSION LINAIRE

    DeV oitN = 1 + 2Salaires du type : y = 1 + 2x2Rgression linaire sur un chantillon de n observations pour chaque variable,i [1, N ] : dans le cas de variables y, x1, ..., xk, ...xK cela donne K + 1 vecteurscolonnes suivants du type : y1, x1, ..., xk, ...xK

    y x1 xk xK

    y1 1 x1k x1K.

    .

    .

    .

    .

    .

    .

    .

    . :yi 1 xik xiK: : : :yN 1 xNk xNK

    TAB. 1.1 variables y et xi

    Et en particulier, la matrice des observations concernant les variables ind-pendantes est note X(N,K). Do, tant donns y et X : calculer les coefficientsde rgression, cest dire les paramtres de la relation linaire.{

    colonne k de X : note xkligne i de X : note xi

    Soit (1, 2, ..., K) = vecteur quelconque, pour lobservation i, on compareyi et 1 +

    Kk=2 kxik, gnralement diffrents, soit ei cet cart : ei = yi 1 +K

    k=2 kxik Lajustement par les moindres carrs consiste minimiser la sommedes carrs des carts :

    min

    Ni=1

    (yi 1

    Kk=2

    kxik

    )2Calcul des coefficients de la rgression :Soit e le vecteur des carts : e = y X do la somme des carrs des carts

    ee =Ni=1

    e2i = (yX)(yX) = (yX )(yX) = yyX yyX+X X

    do d(ee)

    d= X yyX+2X X = 2X y+2X X = 0 en minimisant cela

    donne : X X = X y et la solution

    = (X X)1X y

    6

  • Economtrie applique

    b

    b

    b

    b

    b

    b

    b

    b

    b

    y = 1 + 2x2

    yi

    yi

    y

    x2

    FIG. 1.1 Droite de rgression

    1.2 Interprtation1.2.1 Rgression linaire simple

    y = 1 + 2x2

    X X =[x1x2

    ] [x1 x2

    ]=

    [1 . . . 1x12 . . . xN2

    ] 1 x12...

    .

    .

    .

    1 xN2

    = [ N i xi2i xi2

    i x

    2i2

    ]

    X y =[

    1 . . . 1x12 . . . xN2

    ]

    y1.

    .

    .

    yi.

    .

    .

    yN

    =[

    i yii xi2yi

    ]

    Donc (X X) = X y donne un systme de deux quations normales :

    N1 + (

    i

    xi2)2 =i

    yi . . . . . . (1)(1.2)

    (i

    xi2)1 + (i

    x2i2)2 =i

    xi2yi . . . . . . (2)(1.3)

    (1) en divisant tout par N cela donne 1 + 2x2 = y donc la droite de rgressionpasse par (y, x2)Si lon remplace 1 par y 2x2 dans (2) on a alors :

    7

  • CHAPITRE 1. LA RGRESSION LINAIRE

    (2) (i xi2)(y 2x2 + (i x2i2)2 =i xi2yido :

    2[i

    x2i2 x2i

    xi2] =i

    xi2yi yi

    xi2

    2[i

    x2i2 Nx22] =i

    xi2yi y xi2

    2i

    (xi2 x2)2 =i

    (xi2 x2)(yi y)

    Soit donc 2 =P

    i(xi2x2)(yiy)P

    i(xi2x2)2 =Sy2S22

    et 1 = y 2x2Interprtation de 2 : un diviseur prs Sy2 mesure la covariation1 (cova-

    riance) entre y et x2 et le signe de 2 est dtermin par le sens de cette covariation.

    b

    b

    b

    b

    b

    b

    b

    b

    b

    y = 1 + 2x2y

    x2

    y

    x2

    FIG. 1.2 Sens des covariations

    La Figure 1.2 montre le cas dune covariation positive : lorsque yi > y, le plussouvent xi > x. On a donc :

    Sy2 > 0

    1.2.2 Regression linaire multiplecas de 3 variables :y = 1 + 2x2 + 3x3

    X X =

    x1x2x3

    [ x1 x2 x3 ] = N i xi2 i xi3

    i xi2

    i x2i2

    i xi2xi3

    i xi3

    i xi3xi2

    i x2i3

    matrice symtrique1Formule de la covariance empirique : cov(y, x2) = Sy2/(n 1)

    8

  • Economtrie applique

    X y =

    i yii xi2yii xi3yi

    do les trois quations normales suivantes :N1 + 2

    i xi2 + 1

    i xi3 =

    i yi . . . (1)

    1

    i xi2 + 2

    i x2i2 + 3

    i xi2xi3 =

    i xi2yi . . . (2)

    1

    i xi3 + 2

    i xi3xi2 + 3

    i x2i3 =

    i xi3yi . . . (3)

    de (1) en divisant tout par N on obtient :1 + 2x2 + 3x3 = y donc le plan dergression passe par y, x2, x3 avec 1 = y 2x2 3x3 remplac dans (2) et (3)on a :

    2i

    (xi2 x2)2 + 3i

    (xi2 x2)(xi3 x3) =i

    (xi2 x2)(yi y)

    2i

    (xi3 x3)(xi2 x2) + 3i

    (xi3 x3)2 =i

    (xi3 x3)(yi y)

    Ou encore : {2S22 + 3S23 = Sy2

    2S32 + 3S33 = Sy3

    Donc les 2 et 3 sont fonction des covariations non seulement entre y et (x2 etx3) mais aussi entre x2 et x3.

    1.3 Mesure (descriptive) de la qualit de lajuste-ment linaire

    1.3.1 Trois concepts diffrents de la variation de yOn pose :

    yi = 1 +Kk=2

    kxik

    do y = Xb et les rsidus sont les ei = yi yi do le vecteur des rsidusei = y Xb.

    Variation totale : TSS =

    i(yi y)2 = Syy (total sum of squares) Variation explique : ESS =

    i(yi y)2 (explained sum of squares)

    Variation rsiduelle : RSS =

    i(yi yi)2 =

    i(ei)2 (residual sum of

    squares)Ces trois quantits sont lies par le rsultat fondamental :

    9

  • CHAPITRE 1. LA RGRESSION LINAIRE

    TSS = ESS+RSS

    Dmonstration : Prliminaires : quelques proprits des rsidus. Avec e = y X on a

    dabord : X X = X y X X X y = 0 = X (X y) = X e = 0

    do, dans le cas dune rgression avec constante : x1e = 0 soit encorei ei = 0 et donc e = 0.

    On a galement : y = y + e et x1y = x1y + x1e = x1y donc :

    i x1yi =

    i yi Comme e = y X = y X(X X)1X y = [I X(X X)1X ]y,

    soit : e = My. My est une matrice symtrique idempotente (M2y = My =M yMy)

    Do :RSS =

    i

    e2i = ee = (My)(My) = yM yMyy = y

    Myy

    = y[I X(X X)1X ]y = yy yX(X X)1X yyy yX = yy yy

    Cette dernire expression est gale TSSESS : en effet : TSSESS =i(yi y)2

    i(yi y)2 =

    i y

    2i

    i y

    2i puisque

    i yi =

    i yi. Or :

    i

    y2i = yy = (X)(X) = X X = [(X X)1X y]X X

    = yX(X X)1(X X) = yX = yy

    DoTSS = ESS+RSS

    2

    1.3.2 Mesure de la qualit de lajustement linaireLe coefficient de dtermination :

    R2 =ESS

    TSS

    est compris entre 0 et 1. Il reprsente la part de la variation totale explique par largression linaire do :{

    ESS = R2TSS

    RSS = TSSESS = (1R2) TSSdo les deux cas extrmes :

    10

  • Economtrie applique

    R2 = 0 : ESS = 0 =

    i(yi y)2 yi = y, i ce qui correspond 2 =3 = . . . = K = 0. En effet, le modle simple y = 1 entraine min1(yi 1)

    2 1 = y do yi = y. Globalement (x2, . . . , xK) nexplique rien parrapport un modle o on pose yi = y

    R2 = 1 : RSS = 0 =

    i e2i ei = 0 i do yi = yi i. Le modle

    explique parfaitement les donnes.Voir le listing : le document 1 du cours, pour ESS, RSS, TSS, et R2 : les exemples1 et 2.

    1.4 Une illustrationexemple 3 : chantillon de 5 personnes, y :salaire, x2 :annes dducation,x3 :an-

    nes dexprience au travail (y est en milliers de dollars).

    y x2 x3

    30 4 1020 3 836 6 1124 4 940 8 12

    TAB. 1.2

    Pour le calcul il est parfois commode dutiliser les observations centres parrapport aux valeurs moyennes : On a vu que :{

    2s22 + 3s23 = sy2

    2s32 + 3s33 = sy3

    soit [s22 s23s32 s33

    ] [23

    ]=

    [sy2sy3

    ]do si lon note "c" pour centr :

    Xc =

    x12 x2 x13 x3

    .

    .

    .

    .

    .

    .

    xi2 x2 xi3 x3.

    .

    .

    .

    .

    .

    xN2 x2 xN3 x3

    11

  • CHAPITRE 1. LA RGRESSION LINAIRE

    c =

    [23

    ]

    yc =

    y1 y

    .

    .

    .

    yi y.

    .

    .

    yN y

    Il vient que c = (X cXc)1X cyc car X cXcc = X cyc dautre part : TSS =

    i(yi y)2 = ycyc galement : yi = 1 + 2xi2 + 3xi3y = 1 + 2x2 + 1x3 donc yi y = 2(xi2 x2) + 3(xi3 x3) do ESS =

    i(yi y)2 = (y y)(y y) avec y vecteur des composantes et y y = Xcc(daprs les deux lignes au-dessus) do :

    ESS = (Xcc)(Xcc) = cX cXcc = c

    X cyc

    Do pour calculer les caractristiques de la rgression de y sur x2, x3 il faut uti-liser les lments de la matrice symtrique : syy sy2 sy3s2y s22 s23

    s3y s32 s33

    X cXc =

    [s22 s23s32 s33

    ]X cyc =

    [sy2sy3

    ]et :

    c =

    [s22 s23

    s32 s33

    ]1 [sy2

    sy3

    ], 1 = y 2x2 3x3

    TSS = syy, ESS = cX cyc = 2sy2 + 3sy3

    R2 = ESSTSS

    Pour les calculs des sij , il convient dutiliser la formule suv =

    i(uiu)(viv) =

    i uivi Nuv do :

    do syy = 272,sy2 = 62,sy3 = 52,s22 = 16,s23 = 12,s33 = 10do {

    162 + 123 = 62

    122 + 103 = 52[23

    ]=

    1

    16 10 122[

    10 121216

    ] [6252

    ]=

    [ 0.255.5

    ]

    12

  • Economtrie applique

    y x2 x3 yx2 yx3 x22 x

    23 x2x3

    30 4 10 . . .20 3 8 . . .36 6 11 . . .24 4 9 . . .40 8 12 . . .

    i yi = 150 25 50 . . .y = 30 x2 = 5 x3 = 10 . . .

    TAB. 1.3

    et1 = 30 (0.25) 5 5.5 10 = 23.75

    R2 =1

    272

    [ 0.25 5.5 ] [ 6252

    ]= 0.998 ESS(x2, x3) = 271.5

    Lquation de rgression scrit :

    y = 23.75 0.25x2 + 5.5x3Ce sont les annes dexprience dans lentreprise qui sont importantes (effet po-sitif). A x2 constant, une anne de plus accroit le salaire de 5 500$. Par contre,avoir plus dannes dducation a un effet ngatif sur le salaire. Commentaire surlordonne lorigine : il est dangereux dextrapoler hors chantillon...

    Supposons quon ait fait une rgression linaire de y juste sur x2. Dans ce cas :

    2 =Sy2S22

    = 3.875

    ESS(x2) = 2Sy2 =(Sy2)

    2

    S22= 240.25 R2 = 0.883

    Si lon fait prsent une rgression de y juste sur x3, dans ce cas :

    3 =Sy3S33

    = 5.2

    ESS(x3) = 3Sy3 =(Sy3)

    2

    S33= 270.4 R2 = 0.994

    Do, sans x3, leffet de x2 sur y est positif. Mais avec x3, leffet de x2 sur yest ngatif. Pourquoi ? Quel est le bon effet ?

    13

  • CHAPITRE 1. LA RGRESSION LINAIRE

    1.5 La multicolinaritSur le plan de la mesure descriptive de la qualit de lajustement linaire (par

    rapport au R2). La part de variation explique par la rgression est une fonction non d-

    croissante du nombre de variables explicatives. Pour r < K :

    RSS(x2, . . . , xr) = min1,...,K

    i

    (yi i Kk=2

    kxik)2

    sous la contraite r+1 = . . . = k = 0.

    RSS(x2, . . . , xK) = min1,...,K

    i

    (yi i Kk=2

    kxik)2

    Sans la prcdente contrainte. Donc le minimum obtenu ici sans contrainte nepeut par dfinition qutre infrieur ou gal au minimum obtenu avec contrainte.En consquence :

    ESS(x2, . . . , xr) ESS(x2, . . . , xr)Dans notre illustration prcdente :

    ESS(x2, x3) = 271.5 ESS(x2) = 240.25 ESS(x3) = 270.40

    Dans une rgression, la mesure de la contribution dune variable lexpli-cation de la variation totale de y dpend des autres variables explicatives prisesconjointement en considration. Pour y, x2, x3 par exemple, quelle est la contri-bution de x2 ?

    La rgression simple de y sur x2 donne : ESS(x2). La rgression multiple dey sur x2, x3 donne : ESS(x2|x3) = ESSx2, x3 ESS(x3). En rgle gnrale, cesdeux quantits sont diffrentes. Dans le cas de notre illustration :

    ESS(x2) = 240.25ESS(x2|x3) = 272 270.40 = 1.60

    La raison de cette diffrence est lexistence de covariations entre les variablesexplicatives. Il y a un problme de multicolinarit. Avec y, x2, x3 : supposonscov(x2, x3) = 0, cela implique que S23 = S32 = 0. Dans ce cas :

    X cXc =[S22 00 S33

    ]14

  • Economtrie applique

    do :

    c = (XcXc)

    1X cyc =

    1

    S220

    01

    S33

    [ Sy2Sy3

    ]{2 =

    Sy2S22

    3 =Sy3S33

    Les coefficients obtenus en rgression multiple sont donc les mmes que ceuxobtenus en rgression simple de y sur x2 et de y sur x3. On a galement :

    ESS(x2, x3) = cX

    cyc =

    [Sy2S22

    Sy3S33

    ] [ Sy2Sy3

    ]=

    (Sy2)2

    S22+

    (Sy3)2

    S33

    = ESS(x2) + ESS(x3)

    do : ESS(x2|x3) = ESS(x2). Dans le cas de rgresseurs orthogonaux, tout peutse ramener des rgressions simples. Dans le cas contraire, ce nest pas pos-sible : le coefficient de rgression dune variable est fonction des autres variablesexplicatives, de mme que son pouvoir explicatif. Un biais de spcification peutrsulter de loubli de variables significatives explicatives : le biais des variablesmanquantes.

    Pour y, x2 et x3, on a :

    {2S22 + 3S23 = Sy2 (1)(1.4)2S32 + 3S33 = Sy3 (2)(1.5)

    En divisant lquation (1) par S22, on obtient :

    2 + 3S23S22

    =Sy2S22

    Cest dire :2 + 3a32 = ay2

    Ici a32 reprsente le coefficient de x2 dans la rgression simple de x3 sur x2, ay2reprsente le coefficient de x2 dans la rgression simple de y sur x2. En cons-quent, si x3 est une variable explicative de y, 3 6= 0 et cov(x2, x3) 6= 0 doncS32 6= 0 donc a32 6= 0. Par consquent, le coefficient de x2 dans la rgressionsimple de y sur x2, ay2 mlange deux effets :

    Un effet direct de x2 sur y : toutes choses gales par ailleurs (x3 constante).Cet effet est mesur par 2.

    Un effet indirect de x2 sur y, via x3 : mesur par 3a32 :

    x2ba32 x3

    b3 y

    15

  • CHAPITRE 1. LA RGRESSION LINAIRE

    Do le biais dans ay2, menant mme parfois lapparition dune corrlation fic-tive entre deux variables (spurious correlation) : 2 = 0, mais ay2 = 3a32 6= 0.

    y

    x3

    x2

    Dans les cas o 2 6= 0, ce biais peut inverser le signe du coefficient de rgressionselon les autres variables explicatives. Dans lillustration : il est erron de direque les annes dtude aprs le lyce ont une influence positive sur le salaire surla base dune rgression simple de y sur x2 donnant 2 = 3.875 et R2 = 0.883(exemple 3). En ralit :

    ay2 = 2 + 3a323.875 = 0.25 + 5.5 0.75

    4.125

    Leffet de x2 sur y est en fait ngatif. Leffet positif observ dans la rgressionsimple rsulte dune covariance positive entre x2 et x3 dans lchantillon et duneffet positif de x3 sur y (do un effet indirect positif de x2 sur y via x3.

    Enfin, les cas de multicolinarit extrme peuvent conduire labsence de so-lution pour les coefficient de rgression car X X ou X cXc nadmettent pas din-verse.

    Dans le cadre de la rgression multiple il y a aussi multicolinarit si une va-riable est proche dune combinaison linaire des autres varialbes : xk

    i6=k ixi

    (tous les i ntant pas nuls). Dans le cadre dune multicolinarit parfaite, la ma-trice X X nest pas inversible et il est impossible de calculer . Une conditionncessaire pour viter la multicolinarit est donc que X soit de plein rang co-lonne : son rang est gal au nombre de colonne (et non infrieur).

    1.6 Complments mathmatiques

    1.6.1 Reprsentation gomtriqueOn a cherch ici estimer le vecteur des coefficients tel que :

    (1.6) y = X

    16

  • Economtrie applique

    soit la meilleure approximation de : y = X + . On peut rcrire lquation(1.6) :

    (1.7) y = X = [x1 x2 xn][1 2 n] = 1x1 + 2x2 + + nxnOn cherche donc un vecteur y, combinaison linaire des vecteurs xi (nos variablesexplicatives) qui soit la meilleure approximation possible de y. Lensemble desvecteurs combinaison linaire des vecteurs xi appartiennent lespace vectorielengendr par les xi, nous notons cet espaceL(X). Nous cherchons donc le vecteury L(X) tel que ce vecteur soit le plus proche possible du vecteur y. On peutcrire y = y + u, et nous cherchons donc y tel que u soit le plus petit possible.En utilisant la norme usuelle quest la norme euclidienne, la norme de u est :||u|| =i u2i =i(yi yi)2. Trouver le u de norme minimale revient donc minimiser la somme des carrs des rsidus. le thorme du plus court cheminnous dit que u (qui relie y et un vecteur de lespace L(X)) est de norme minimalelorsquil est ortogonal L(X), cest dire lorsque y est le projet orthogonal dey sur L(X). Le principe est reprsent sur la Figure 1.3, p. 18.

    Pour trouver les coefficients , il faut donc trouver le vecteur u orthogonal L(X). Pour cela, on rsoud le systme des quations normales2 qui reprsenteles produits scalaires de u avec les vecteurs xi (qui doivent tre nuls pour assurerlorthogonalit entre u et L(X)).

    X u = 0

    ux1 = 0

    ux2 = 0.

    .

    .

    uxn = 0

    On peut rcrire ce qui prcde :

    X u = X (y y) = X y X X = 0

    Ce qui correspond bien aux quations normales (voir p. 7).

    1.6.2 Projection et qualit de lestimation

    2Qui assurent, que u est un vecteur normal lespace L(X), cest dire orthogonal celui-ci.

    17

  • CHAPITRE 1. LA RGRESSION LINAIRE

    L(X) X

    ~u

    ~Y

    FIG. 1.3 Projection de Y sur L(X)

    Corrlation entre variables explicatives : biais des variables manquantes, etmulticolinarit

    Biais des variables manquantes Lorsque lon omet dans une rgression mul-tiple une variable ayant un impact causal sur la variable explique y, il y a au-tomatiquement un risque de biais dans lestimation des coefficients des variablesexplicatives. Ce biais existe ds lors que la variable omise est corrle avec uneou plusieurs des variables explicatives. En effet, dans ce cas, les variations de lavariables omises, qui ont un effet sur la variable explicative, sont corrles avecles variations de la variables explicative, et lon va attribuer cette dernire unepart de leffet sur y de la variable omise. Prenons lexemple dune rgression :

    y = 1 + 2x2 + 3x3 +

    Supposons que lon omette dans la rgression la variable x3 alors quelle agitsur y et quelle est corrle avec x2. Le coefficient que lon obtient en rgressionsimple pour x2 nest pas le mme que celui obtenu en rgression multiple. Onpeut donner une reprsentation graphique de ce problme. Par simplicit, suppo-sons que x2 et x3 sont des vecteurs centrs. La rgression peut alors se faire sansla constante. Supposons que ces deux vecteurs sont corrls. La Figure 1.4 per-met de voir la diffrence qui existe entre les deux coefficients possible de x2 :a2 et 2 de x2, respectivement en rgression sinple et en rgression multiple enincluant x3. On peut reprsenter les deux vecteurs corrls comme des vecteursnon orthogonaux. Dans ce cas simple en deux dimensions, il est possible de voirtrs facilement la diffrence qui existe entre ces deux coefficients : cest 3 cos .On retrouve ici la formule vue prcdemment. Pour des variables centres on aen effet a32 = Cor(x2, x3). De plus, le coefficient de corrlation entre deux vec-

    18

  • Economtrie applique

    O

    2

    a2

    a33

    3 cos()

    ~x2

    ~x3

    ~y

    FIG. 1.4 Frish Waugh

    teurs est la gnralisation de la notion de cosinus pour des vecteurs (centrs) n-dimensionnels 3.

    a2 = 2 + 3Cor(x2, x3)

    Ce que montre la Figure 1.4, cest aussi que si lon rgresse y sur le projet dex2 sur lespace orthogonal au vecteur x3, alors lestimation est sans biais. Cestune illustration du thorme de Frish-Waugh selon lequel les estimations de effectues dans les deux modles suivant sont identiques :

    y = X + Z +

    3Soit ~a et ~b de mme dimension. Apellons ~ac et ~bc les vecteurs dont les composantes sontcentres (ac,i = ai a). On rappelle que le produit scalaire de ces deux vecteurs dans le casbidimensionnel scrit :

    ~ac.~bc = ||~ac||.||~bc|| cos(~ac, ~bc)On a donc dans le cas bidimensionnel :

    cos(~ac, ~bc) =~ac.~bc

    ||~ac||.||~bc||=

    2i=1(ai a)(bi b)2

    i=1(ai a)22

    i=1(bi b)2

    Le lecteur attentif aura bien entendu reconnu le coefficient de correlation entre ~ac et ~bc.

    19

  • CHAPITRE 1. LA RGRESSION LINAIRE

    MZy = MZX +MZ

    Ici, Z est une matrice contenant un ensemble de variables zk de coefficient k. Lamatrice MZ = I PZ est la matrice de projection sur lespace orthogonal les-pace engendr par les variables zk. Ce rsultat signifie que pour avoir une bonneestimation de , il faut soit prendre en compte les variables zk soit ne conserverque linformation contenue dans y et X qui est orthogonale L(Z).

    Multicolinarit Le problme de multicolinarit vient du fait que lorsque desvariables explicatives sont fortement corrles entre elles, il devient difficile dedpartager leurs effets respectifs. Les estimations de leurs coefficients deviennentalors trs sensibles de faibles variations dans les valeurs observes. La Figure1.5 montre cette situation : deux vecteurs y lgrement diffrents peuvent don-ner des estimations trs distinctes pour les coefficients des variables x2 et x3 sices dernires sont fortement corrles. Rappelons que la matrice de variance descoefficients C = (2, 3) est gale

    V (C) = (XCXC)

    12

    Or(X CXC)

    1 =1

    |X CXC |A

    o A est la matrice transpose des cofacteurs de X CXC (voir les complmentsdalgbre en Annexe, p. 90). On calcule trs facilement : |X CXC | =

    (x2)

    2

    (x3)2

    (

    (x2x3)2. Or on a :1

    |X CXC |

    (x2)

    2

    (x3)2 (

    x2x3)

    2 0

    (x2)2

    (x3)2

    (

    x2x3)2 1

    (cov(x2, x3)V (x2)V (x3)

    )2 1

    Cor(x2, x3)2 1Lorsque la corrlation entre x2 et x3 tend vers 1 ou -1, les variances de 2 et

    3 qui sont les termes sur la diagonale de V (C) tendent donc vers linfini. Ensomme, si les variables x2 et x3 sont fortement corrles, les coefficients obtenussont trs alatoires.

    Corrlation entre les variables explicatives et les rsidus

    Si la projection orthogonale reprsente la meilleure estimation pour y, cestque nous supposons que le vecteur des erreurs est asymptotiquement4 ortho-gonal aux variables explicatives : il nest pas corrl avec celles-ci. Choisir un u

    4Cest dire quil tend tre orthogonal lorsque le nombre dobservation tend vers linfini

    20

  • Economtrie applique

    x1

    x2

    y

    y

    1 1

    2

    2

    FIG. 1.5 Cas de multicolinarit : projection sur le plan (x1, x2)

    orthogonal L(X) est donc la meilleure mthode pour estimer y. Toutefois, si levecteur nest pas asymptotiquement orthogonal, et que lon a cov(xi, i) 9 0pour certaines variables explicatives, la projection orthogonale ne donne plus uneestimation sans biais. La Figure 5.2 p. 81 reprsente graphiquement cette situa-tion. Ce type de problme sera trait dans la section 5 sur les variables endognes.

    21

  • CHAPITRE 1. LA RGRESSION LINAIRE

    22

  • Chapitre 2

    Estimation des paramtres et testsdhypothses.Principes gnraux

    Lconomtrie repose toujours et avant tout sur un modle.Modle : hypothse thorique concernant la "ralit", cest dire la manire

    dont les observations sont engendres.Do les diffrentes tapes suivantes de manire shmatique (Maddala) : Fi-

    gure 2.1.Concernant la construction du modle conomtrique, il faut distinguer les va-

    riables explicitement prises ne considration et le terme derreur. On passe souventdu modle conomique au modle conomtrique en ajoutant le terme derreur :

    yi = 1 +k

    kxik + i

    i joue ici le rle de variable fourre tout : "it really comprises no more thangiving a name to our ignorance and specifying for it a broad quantitative form".

    Consquences : Pour quune droite de rgression soit une bonne estimationdune droite thorique, il faut des hypothses sur les i.

    Concernant lestimation du modle, il y a ici un problme car les points dunuage ne sont pas "harmonieusement" distribus autour de la droite thorique. Dece fait, lestimation est un processus dinfrence statistique : utilisation de don-nes connues via les observations pour tester la validit dun modle inconnu carinnobservable. La qualit des estimations dpend des hypothses faites en parti-culier sur les termes derreur i. De ces hypothses dpend la qualit des relationsentre les k (paramtres thoriques), et les k (coefficients estims par la rgres-sion).

    23

  • CHAPITRE 2. ESTIMATION DES PARAMTRES ET TESTSDHYPOTHSES.

    PRINCIPES GNRAUX

    Modle conomiquesuggr par la thorie

    Modle conomtriquemise en forme du modle conomique

    sous forme empiriquement testable

    Informations a priori Donnes

    Estimationdu modle

    Testsdhypothses

    Rsultats des testsconformesau modle

    Rsultats des testsnon conformes

    au modle

    Utilisation du modle(prvision et

    politique conomique)Reformulation

    du modle

    FIG. 2.1 Les tapes de ltude conomtrique selon Maddala

    24

  • Economtrie applique

    b

    b

    b

    b

    b

    b

    b

    b

    b

    y = 1 + 2x2

    y = 1 + 2x2

    y

    x2

    2.1 Estimation : relations entre les coefficient de r-gression et les paramtres thoriques

    2.1.1 Le principeRelation thorique :

    (2.1) yi = 1 +k

    kxik + i

    Relation empirique :

    (2.2) yi = 1 +k

    kxik + ei

    Relation entre :

    =

    12.

    .

    .

    K

    et =

    12.

    .

    .

    K

    On sait que = (X X)1X y. Mais de (2.1), y = X + avec

    =

    12.

    .

    .

    N

    do = + (X X)1X

    25

  • CHAPITRE 2. ESTIMATION DES PARAMTRES ET TESTSDHYPOTHSES.

    PRINCIPES GNRAUX

    est donc un vecteur alatoire qui, pour des ovservations donnes (X, y) dif-fre de en fonction des valeurs prises par le vecteur alatoire . est un estima-teur de . On peut souhaiter quelques proprits dsirables pour cet estimateur.Parmi celles-ci :

    Sans biais : E() = Efficace : de variance minimaleConvergent en probabilit : p

    Pourquoi cela ? On peut considrer z, une variable alatoire estimateur dunparamtre a. Daprs lingalit de Bienaym-Tchebitcheff, quelque soit la distri-bution de z,on a :

    P[|z E(z)| ] V(z)2

    Do, si z est sans biais : E(z) = a, alors

    aa a+

    La probabilit que z appartienne cet intervalle est infrieure 1 V(z)/2.Si z est efficace, V(z) est minimal et la probabilit dappartenir cet intervalleest dautant plus forte. Enfin, si V(z) 0 quand la taille N de lchantillon enfonction duquel z est dtermin augmente, on a la convergence en probabilit.

    Problme ici : est un vecteur alatoire. Or si z est un vecteur alatoire :

    z =

    z1.

    .

    .

    zi.

    .

    .

    zM

    On peut dfinir.

    E(z) =

    E(z1)

    .

    .

    .

    E(zi).

    .

    .

    E(zM)

    et V(z), la matrice des variances et covariances de z : V(z) = E [(z E(z)) (z E(z))] :

    26

  • Economtrie applique

    V(z) =

    z1 E(z1)

    .

    .

    .

    zi E(zi).

    .

    .

    zM E(zM)

    h

    z1 E(z1) zi E(zi) zM E(zM)i

    V(z) =

    V(z1) cov(z1, z2) cov(z1, zM).

    .

    .

    ...

    .

    .

    .

    .

    .

    . V(zi).

    .

    .

    .

    .

    .

    ...

    .

    .

    .

    cov(zM , z1) V(zM)

    V est une matrice symtrique (M,M).Considrons b = + (X x)1X et posons

    Hypothse 1 (Bruit blanc) E() = 0 (vecteur nul)Alors E() = , lestimateur est sans biais.De plus : E() = 0 V() = E[] et V() = E[(b )(b )] avec

    b = (X X)1X . Ceci donne :V() = E[(X X)1X X(X X)1] = (X X)1X E()X(X X)1

    Hypothse 2 (Homoscdasticit) V()) = 2I . Avec 2 = V(i), iTous les i ont mme variance. Dans le cas contraire il y a htroscdasticit. Parexemplbe les dpense de consmmation des mnates fort niveau de evenu peuventavoir une variabilit plus grande que celle des mnages faible revenu. Do, danslquation c = 1 + 2Ri + i, V(i) peut tre fonction des valeurs prises par R.Hypothse 3 (Non autocorrlation) cov(i, j) = 0 i 6= jDans le cas contraire, on parle dautocorrlation : les i ne sont pas indpendantdans le temps. Dans le cadre de donnes temporelles, une autocorrlation posi-tive implique par exemple quun t ngatif va avoir tendance tre suivi dunt+1 ngatif, et inversement (voir Figure 2.2). Cela induit un biais possible danslestimation des paramtres.

    Si lon a V() = 2I alors V() = 2(X X)1. Do :

    E() = V() = 2(X X)1

    27

  • CHAPITRE 2. ESTIMATION DES PARAMTRES ET TESTSDHYPOTHSES.

    PRINCIPES GNRAUX

    b

    b

    b

    b

    b

    b

    b

    b

    b

    b

    y = 1 + 2x2

    y

    x2FIG. 2.2 Autocorrlation positive

    2.1.2 ApplicationsRgression linaire simple

    y = b1 + 2x2

    X X =[

    N

    i xi2i xi2

    i x

    2i2

    ] (X X)1 = 1

    N

    i x2i2 (

    i xi2)

    2

    [ i x

    2i2

    i xi2

    i xi2 N]

    doV(2) = 2

    N

    N

    i x2i2 (

    i xi2)

    2=

    2i x

    2i2 (

    P

    i xi2)2

    N

    De plus on a :

    S22 =i

    (x2i2 x22) =i

    x2i2 2xi

    xi2 +Nx22

    S22 =i

    x2i2 2

    N(i

    xi2)2 +N(

    i xi2N

    )2 =i

    x2i2 (

    i xi2)2

    N

    On a donc : V(2) =2

    S22

    On a galement

    V(1) =2

    i xi2)2

    N(

    i xi2)2 (

    P

    i xi2))2

    N

    =2

    N

    i x

    2i2

    S22

    28

  • Economtrie applique

    Lorsque N , S22 =

    i(x2i2 x22) do V(2) 0 et V(1) 0. Par

    consquent 2p 2 et 1 p 1. Exemple 4 : Donnes concernant la production

    y et le nombre dheures de travail x2. Nombre N dobservation : 10.

    y x2 x22 y

    2 yx2

    11 1010 712 106 510 87 89 610 7111 910 10= 96 80 668 952 789

    TAB. 2.1

    {2 =

    Sy2S22

    =P

    i yixi2Nyx2P

    i x2

    i2Nx22V(2) =

    2

    S22{1 = y 2x2V(1) = 2N

    P

    i(x2

    i2

    S22

    2 =789 10(9.6x8)668 10(64) = 0.75

    V(2) =2

    28= 0.0362

    et1 = 9.6 0.75(8) = 3.6

    V(1) =2

    10

    668

    28= 2.392

    Le problme est ici que la variance des coefficients de rgression est inconnuecar 2 est inconnu. 2 = V() peut tre estime partir de la variance empiriquedes rsidus :V(e) =

    Ni=1(ei e)2. Or e = 0, do V(e = ee =

    i e

    2i . Mais

    29

  • CHAPITRE 2. ESTIMATION DES PARAMTRES ET TESTSDHYPOTHSES.

    PRINCIPES GNRAUX

    on veut un estimateur sans biais de 2. Dans le cadre gnral des rgressions

    multiples, un estimateur sans biais de 2 est s2 = eeNK do ici :

    s2 =RSS

    N K =RSS

    10 2Donc

    ESS = 2Sy2 = 0.75x21 = 15.75TSS =

    i y

    2i Ny2 = 952 10(9.6)2 = 30.4

    } R2 = 0.518

    ets2 =

    30.4 15.758

    = 1.83

    doV(2) = 0.036x1.83 = 0.06588V(1) = 2.39x1.83 = 4.3737

    Et les carts-type estims (standard error) :

    2 = 0.2561 = 2.09

    Avec E(k) = k, les carts-type indiquent lamplitude des carts possibles entrek et k inconnu.

    Rgression linaire multiple

    y =Nk=2

    kxk

    On sait que

    X X =

    N

    i xi2

    i xiN

    i xi2 x2x2 x2xN

    .

    .

    .

    .

    .

    .i xiN x

    Nx2 xNxN

    do V() = 2(X X)1 et V () = s2(X X)1 avec

    s2 =ee

    N K30

  • Economtrie applique

    Do si (X X)1matrice [ij](K,K), on a :

    V(k) = s2kk k [1, K]

    et k = skk, k.

    Il est parfois utile de faire abstraction de lordonne lorigine. Prenons c =(X cXc)

    1X cyc, et yc = Xcc + , avec =

    i i/N .

    En remplaant, on obtient : c = c + (X cXc)1X c( ). Or X c =

    i(xik xk) = 0. Do :

    c = c + (XcXc)

    1X c

    Sous les hypothses 1, 2, et 3 prcdentes, E(c) = c, V(c) = 2(X cXc)1et :

    X cXc =

    S22 S2N...

    .

    .

    .

    SN2 SNN

    Si lon reprend lexemple 3 du chapitre 1 : y le salaire, x2 le nombre dannes

    dducation, x3 le nombre dannes dexprience au travail.

    X cXc =[16 1212 10

    ]Syy = TSS = 272ESS = 271.5

    R2 = 0.998Donc la RSS = 0.5, do s2 = 0.5

    53 = 0.25. De plus :

    (X cXc)1 =

    1

    16(10) 122[

    10 1212 16

    ]On a donc :{

    V(2) = 0.25 1016(10)122 = 0.1562 = 0.395

    {V(3) = 0.25 1616(10)122 = 0.253 = 0.5

    Voir le doc. 1 cours (sur les listings) : Std. Err. exemples 1 et 2.

    Le rle de lhypothse de normalit

    A ce stade, nous savons que : suit une distribution de probabilit. E() = V() peut tre estime par V()

    31

  • CHAPITRE 2. ESTIMATION DES PARAMTRES ET TESTSDHYPOTHSES.

    PRINCIPES GNRAUX

    Et donc, pour chaque coefficient on a E(k) = k et lcart type est k =

    V(k).On souhaite dpasser le stade dune simple estimation ponctuelle. Par exemple : Construire des intervalles de confiance dans lesquels le paramtre inconnuk (ou les paramtres inconnus ) ont une probabilit donne de se trouver(on choisira en gnral une probabilit de 95%).

    Construire des tests dhypothses : par exemple tester lhypothse k = 0(la variable nest pas explicative) ou c = 0 (aucune des variablesmise part la constantenest explicative).

    Si est une variable fourre tout, reprsentant de multiples variables non inclusesdans le modle, et si ces variables sont non corrles avec les variables incluesdans le modle, alors la loi des grands nombre peut justifier que lon considre ladistribution de ce terme comme suivant une loi normale.

    Si suit une loi normale multivarie N(0,V() = 2I), alors suit une loinormale multivarie N(,V() = 2(X X)1). Notons que cette hypothse dedistribution normale de nest ncessaire pour assurer la normalit de la distribu-tion de que sur un chantillon fini. Dans tous les cas, suit asymptotiquement(quand N ) une loi normale, quelque soit la distribution de probabilit de .

    Do galement k ; N(k,V(k) = 2kk). Do :

    k kk

    ; N(0, 1)

    Mais encore une fois, k est inconnu. On peut lestimer par k. Cette approxima-tion implique une perte de prcision :

    (1) t = bkkbk

    ; TNK k [1, K]

    TNK est une distribution appele de Student Fisher et est plus tale quuneloi normale.

    On a galement :

    (2) F = 1(K1)s2 (c c)(X cXc)(c c); FK1,NK

    F suit une loi de Fisher-Snedecor de degr de libert K 1 et N K.Le rsultat (1) permet de dterminer une intervalle de confiance pour k. Ainsi,

    pour N K grand, t suit une loi normale et on a :P[|t| > 1.96] = 0.05

    DoP[1.96 t 1.96] = 0.95

    32

  • Economtrie applique

    En remplaant t on obtient :

    P[k 1.96k t k + 1.96k] = 0.95

    kk 1.96k k + 1.96k

    Prob=0, 95

    Si on rpte le calcul de k avec des chelles diffrentes, selon les (avec lemme X), 95% des intervalles calculs contiendront la vraie valeur du paramtrek.

    2.2 Les tests dhypothsesQuest-ce quun test ? Soit lhypothse H0 :tester cette hypothse, cest choisirune statistique associe lchantillon et pour cette statistique. Dfinir une rgiondacceptation et de rejet (gnralement complmentaires) en fonction de laquelleon prend une dcision.La statistique est une variable alatoire do deux types derreurs possibles :

    le risque de premire espce : rejet de H0 alors quelle est vraie. le risque de deuxime espce : acceptation de H0 alors quelle est fausse.

    Ralit TestH0 non H0

    H0 OK risque de premire espcenon H0 risque de deuxime espce OK

    TAB. 2.2 Test dhypothses

    En rgle gnrale, on ne peut pas dcrotre simultanment les deux risques et icion cherche minimiser le risque de premire espce. Dans une premire approche,deux tests sont couramment pratiqus :

    H0 : c = 0 : aucune variable x2, . . . xk nest explicative au sens statistique. H0 : k = 0 : la variable xk nest pas explicative, au sens statistique.

    33

  • CHAPITRE 2. ESTIMATION DES PARAMTRES ET TESTSDHYPOTHSES.

    PRINCIPES GNRAUX

    2.2.1 Test de lhypothse c = 0 : F globalF = 1

    (k1)s2 (c c)X cXc(c c) suit une F (K 1, N K).Supposons c = 0 vraie : F = 1(k1)s2

    cX

    cXcc et comme

    cX

    cXcc = ESS,

    on a :

    F =ESSk1RSSNK

    et le test prsent sous la forme : (STATA).

    Source SS df MSModel ESS K 1 MSE = ESS

    k1Residual RSS N K MSR = RSS

    NK

    F = MSEMSR

    Ide : si c = 0 vraie, le fait dintroduire x2, . . . xk ne va pas contribuer beau-coup lexplication de y do F prend une valeur faible.

    Risque de premire espce : probabilit que F / region de rejet = 0, 05,do :

    0,05

    FRgion de rejet

    Rgion dacceptationF0,05

    FIG. 2.3 Zones de rejet et dacceptation de lhypothse

    {si Fcalcul F0,05 : accpte hypothse c = 0si Fcalcul > F0,05 : rejet une au moins des variables x2, . . . xk est significative ?

    Grandeur du pouvoir explicatif et caractre significatif des variables expli-catives : ide est quon peut avoir un R2 faible et cependant rejeter lhypothse

    34

  • Economtrie applique

    c = 0. Les rsultats du test dpendent en particulier de N : car Fstat est une fonc-tion croissante de N . On sait que ESS = R2TSS et RSS = (1 R2) TSS doF =

    R2

    K1

    1R2

    NK

    et rejet de c = 0 si F > F0,05 soit encore :

    R2 >F0,05(

    K1NK )

    1 + F0,05(K1NK )

    do par exemple : pour K = 10, on a :

    N = 20 F0,05 = 3, 02 R2 > 0, 731N = 40 F0,05 = 2, 21 R2 > 0, 13N = 60 F0,05 = . . . R2 > 0, 03, il suffit dexpliquer 3% de TSS

    pour rejeter lhypothse c = 0.

    do :

    Exemple 4

    y =production, x2 =nombre dheures de travail, N = 10

    ESS = 15, 75 1 MSE = 15, 75ESS = 14, 65 8 MSR = 1, 83

    F = 8, 62 avec R2 = 0, 5188 galement

    =0,5181

    0,4828

    ou F0,05(1, 8) = 5, 32 do rejet de lhypothse c = 0. Ici, dans la rgressionsimple : c = 2.

    Exemple 3

    y =salaires, x2 annes dducation, x3 annes exprience travail, N = 5

    ESS = 271, 5 2 MSE = 135, 75ESS = 0, 5 2 MSR = 0, 25

    F = 543 avec R2 = 0, 998 galement

    =0,9982

    0,0022

    ou F0,05(2, 2) = 19 do rejet de lhypothse c = 0 donc de lhypothse 2 = 0et 3 = 0.

    35

  • CHAPITRE 2. ESTIMATION DES PARAMTRES ET TESTSDHYPOTHSES.

    PRINCIPES GNRAUX

    2.2.2 Test de lhypothse k = 0 : t-testkkk

    suit une t(N K). Do si k = 0, on a tk = kk t-stat associe lavariable xk.

    On dispose de tables statistiques donnant pour les dveloppements limitsNK, un intervalle dans lequel t se trouve avec une probabilit de 0, 95. Par exemple :

    Prob[|tk| > t0,005] = 0, 05

    0t0,05 +t0,05

    Prob=0, 95

    do le test : si k = 0 vrai, |tk| t0,005 avec une probabilit de 0, 95.{si|tk| t0,005 : acceptek = 0si|tk| > t0,005 : rejet : risque de premire espce = 0, 05

    si on reprend : regress LOY ER sur NBREpers, NbreCh, Sexe, DIST :listing

    Fglob F = 40, 05 et F0,05(4, 27) 2, 73 do rejet de lhypothse k = 0.Au moins une des variables est significative, mais laquelle ?

    t-test : t = rapport tk = kk : or t0,005(27) = 2, 052 do une seule variablesignificative au sueil de 5%, qui est NbreCh.

    Remarque : Commentaires sur le listing : propos deProb > F et P > |t| :instructif de prciser le risque de premire espce (seuil de significativit) as-

    soci la valeur de la Fstat ou la tstat calcule.

    pour Nbrepers on a P > |t| qui figure pour une valeur = 0, 337 : signification :si je construit mon t-test pour lhypothse Nbrepers = 0 en prenant comme valeurde rfrence le t calcul sur chantillon (= 0, 898), alors Prob[|tk| > 0, 989] =0, 337 donc . . .

    donc : en rejetant lhypothse Nbrepers = 0 pour |t| > 0, 898, Prob = 0, 337de rejet de lhypothse si elle est vraie.

    t = 0, 898 serait statistiquement significative au sueil de 0, 337

    36

  • Economtrie applique

    00, 898 +0, 898

    Prob = 0, 377

    pour Prob > F = 0, 000 : test construit sur rgion de rejet de c = 0 dtermi-ne par F > 40, 05 donne une proba quasiment = 0 de rejet de c = 0 si elle estvraie.

    Remarque :On peut tester des hypothses autres que k = 0 : par exemple : k = 0k ,

    en utilisant k0

    k

    ket donc la rgion docceptation (au seuil de 5%) est dtermine

    par Prob[t0,05 k0

    k

    k t0,05] = 0, 95 donc k [0k t0,05k] accepte

    lhypothse k = 0k

    Remarque : t-test symtrique et asymtriquejusquici : implicitement : on teste lhypothse k = 0 contre k 6= 0 do on

    admet des valeurs ou pour k. Parfois : restriction priori sur le rgime desparamtres : par exemple : k > 0 et on teste lhypothse k = 0 contre k > 0.avec une table stat donnant le t0,05 pour test symtrique (k = 0 contre k 6= 0),on a :

    t0,05 +t0,05

    0, 025 0, 025

    FIG. 2.4 Test symtrique

    si on utilise cette table pour test asymtrique (k = 0 contre k > 0), dans cecas, il faut une lecture correspondant un t0, 10 (symtrique).

    37

  • CHAPITRE 2. ESTIMATION DES PARAMTRES ET TESTSDHYPOTHSES.

    PRINCIPES GNRAUX

    Rgion limineAccept.

    Rejet

    0, 05

    FIG. 2.5 Test asymtrique

    38

  • Chapitre 3

    Tests de restriction linaires etvariables muettes

    3.1 Tests de restriction linaires sur les paramtresdu modle

    3.1.1 Approche gnraleExemple : fonction de consommation macroconomique.

    (3.1) C = 1 + 2RT + 3RNT +

    Avec RT le revenu du travail et RNT les autres revenus. On peut vouloir testerpar exemple :

    Lhypothse dune propension marginale consommer gale 1 : 2+3 =1

    Lhypothse selon laquelle les deux propensions marginales sont gales :2 = 3

    Ces deux hypothses sont quivalentes des restrictions linaires sur les para-mtres. On peut les crire sous forme gnrale : R = q avec R(J,K) si J restric-tions linaires et q(J,1). Ici on a effectivement :

    [0 1 1

    ] 123

    = [1]

    R=q

    et[0 1 1 ]

    123

    = [0]

    R=q

    Et pour tester ce genre dhypothses, deux pratiques de test sont possibles etici quivalents.

    39

  • CHAPITRE 3. TESTS DE RESTRICTION LINAIRES ET VARIABLESMUETTES

    1. Test reposant sur la perte de qualit de lajustement linaire (en terme deRSS).

    2. Test reposant sur la matrice estime des variances et covariances des esti-mateurs (Wald)

    Ce sont deux approches diffrentes pour construire le mme test (mme valeur deF asymptotiquement).

    Test en terme de RSS

    Le principe : Le minimum dune expression sans contraintes est toujours inf-rieur au minimum de cette mme expression si lon introduit des contraintes. Enconsquence, si lon compare deux modles :

    Modle :y = X + avec RSS = min

    carr des carts sans contraintes

    Modle (*) :{y = X +

    R = qavec RSS = min

    carr des carts sous J

    contrainteson a videmmentRSS RSS 1 et le test est construit sur la diffrenceRSSRSSet plus particulirement sur la statistique :

    F =(RSSRSS)/JRSS /(N K)

    (J,NK) degr de libert. Lide sous-jacente est que si les contraintesR = qsont vraies, alors le fait dimposer ces restrictions au modle ne doit pas impli-quer une perte importante de qualit de lajustement linaire. Donc la quantitRSSRSS doit tre faible do une valeur faible de F . Dans le cas contraire, ona un F avec une grande valeur. Pour tester lhypothse R = q on estime donc lemodle sans contrainte et le modle avec contrainte. Si cette hypothse est vraie,

    F =(RSSRSS)/JRSS /(N K) ; F (J,N K)

    Si F > F0.05 : rejet de lhypothse.Si F F0.05 : acceptation de lhypothse.Ceci suppose que lon puisse intgrer les contraintes dans lcriture du modle.

    Cest parfois possible.Exemple de la fonction de consommation macroconomique :

    C = 1 + 2RT + 3RNT +

    1 RSS = ee et RSS = e e. Or e = y X X( ) donc e = eX( )do ee = [e X( )][e X( )] = ee ( )X e eX( ) + ( )X X( ). Et comme X e = 0 = eX , on a : ee ee = ( )X X( ).

    40

  • Economtrie applique

    Pour lhypothse 2 + 3 = 1 : 3 = 1 2, cela conduit au modle :

    () C RNT = 1 + 2(RT RNT ) +

    Avec deux variables : C RNT et RT RNT .Pour lhypothse 2 = 3, on a :

    C = 1 + 2(RT RNT ) +

    L aussi le modle est deux variables.Il est cependant parfois difficile dintgrer les contraintes dans le modle (*)

    pour arriver estimer sous contraintes. On peut alors adopter une autre approche.

    Test de Wald : en terme de matrice estime des variances et covariances de

    Principe du test : Soit lhypothse R = q. Le test repose sur la comparaisonentre R et q. Un cart important entre R et q est en dfaveur de lhypothse. Letest utilise galement une F statistique :

    F =(R q)[R(X X)1R]1(R q)/J

    ee/(N K) ; F(J,NK)

    Toute linformation disponible pour construire ce test nutilise que les rsultats dumodle non contraint, savoir :

    vecteur des paramtres estims du modle non contraint ee/(N K) = s2 estimation sans biais de V(i) avec le modle non

    contraint, de sorte que, en remarquant que V() = s2(X X)1, matriceestime des variances et covariances de .

    La F statistique peut encore scrire :

    F =(R q)[RV()R]1(R q)

    J

    La procdure du test est donc la suivante : on estime le modle sans contrainte, onconstruit la F statistique avec la matrice V() et :{

    F > F0.05 : rejet de lhypothsse R = qF F0.05 : acceptation de lhypothse R = q

    Exemple 5 : (Greene 2000, p. 240) [voir listing] doc. 2 cours.Considrons la fonction dinvestissement suivante :

    Invt = 1 + 2temps+ 3PNB + 4Int+ 5Inflat+

    41

  • CHAPITRE 3. TESTS DE RESTRICTION LINAIRES ET VARIABLESMUETTES

    Et on veut tester lhypothse jointe suivante :

    2 = 0 : pas de trend3 = 1 : propension marginale investif gale 14 + 5 = 0 : les investisseurs ne prennent en considration que le taux dintrt

    rel do en fait simplement 4(Int Infl)

    Il y a trois restriction linaire. On peut crire :

    R =

    0 1 0 0 00 0 1 0 00 0 0 1 1

    q = 01

    0

    Les estimations du modle non contraint :

    :

    1 = 0.509072 = 0.016583 = 0.67038

    4 = 0.00232595 = 0.000094012

    do

    R =

    0.01658

    2

    0.67038 3

    0.0024199 4+5

    Et

    R q =

    0.01658 2

    0.37038 31

    0.0024199 4+5

    V() est donne (attention lordre des variables : rcrire en mettant la

    constante en premier)Test de Wald : F = (Rq)[RV()R](Rq)/3 = 1266.3525 etF0.05(3.10) =

    3.71 do le rejet de lhypothse jointe. Mais parmi les trois hypothses, quellessont les fausses ?

    42

  • Economtrie applique

    Pour 2 = 0 : time trend : on peut regarder le t2 de la rgression : t2 = 8.409et P > |t| 0 do le rejet de 2 = 0.

    3 = 1 : on peut tester lhypothse 3 = 1 contre 3 < 1 (test asymtrique).t3 =

    b31b

    dl=10. t3 = 0.6703810.054997 = 5.994 or t0.1 = 1.812 do t3 K}. Et on peut donc reprsenter lintroduction

    49

  • CHAPITRE 3. TESTS DE RESTRICTION LINAIRES ET VARIABLESMUETTES

    y = 1 + 31{K>K}+4K

    y

    KK

    3

    FIG. 3.3 Effet de seuil

    de cette dummy sur la Figure 3.3

    Variables qualitatives non binaires

    Toutes les variables qualitatives ne sont pas binaires. Supposons par exempleque lon souhaite tudier limpact de lducation sur le revenu, mais que lon nedispose pour nos donnes que de trois informations possibles : Sans le bac, Bac,Diplme denseignement suprieur. On peut envisager quune solution possibleest de poser une variable :

    educ =

    0 si lindividu na pas le bac1 si lindividu a le bac2 si lindividu a un diplme de lenseignement suprieur

    Toutefois cela pose un problme. On suppose en effet ici que leffet sur le revenude lobtention du bac (par rapport au fait de ne pas lavoir) est quivalent leffetde lobtention dun diplme dtudes suprieur (par rapport au fait davoir le bac).Or ces deux effets peuvent tre trs diffrents. Supposons par exemple que lefait davoir le bac augmente peu le revenu, alors que le fait davoir un diplmedtudes suprieures augmente bien plus celui-ci : Figure 3.42.

    Le fait destimer lquation :

    y = 1 + 2educ

    va mener un 2 surestimant limpact du fait dobtenir le bac et sous estimantlimpact dun diplme dtudes suprieures. Il est donc conseill, dans le cas devariables qualitatives non binaires de "dichotomiser" la variable qualitative en la

    2On remarquera laspect particulier du nuage de points lorsque la variable est qualitative.

    50

  • Economtrie applique

    b

    b

    b

    b

    b

    b

    b

    b

    b

    b

    b

    b

    y = 1 + 2educ

    y

    educ0 1 2FIG. 3.4 Variables qualitatives non binaires

    scindant en variables indicatrices. En loccurrence, on pourra poser ici le fait depas avoir le bac comme la modalit de rfrence, et inclure dans la rgression lesdeux variables indicatrices suivantes :

    1{bac} ={

    0 si lindividu na pas le bac1 si lindividu a le bac

    1{sup} ={

    0 si lindividu na pas de diplme dtudes suprieures1 si lindividu a un diplme dtudes suprieures

    Dans lquation :

    y = 1 + 21{bac} + 31{sup}

    les coefficients 2 et 3 vont donner limpact des diplmes correspondants parrapport au fait de ne pas avoir le bac. On nimpose ainsi aucune contrainte a priorisur les effets relatifs de chaque diplme3

    3La premire situation impose que 2 (effet de lobtention dun bac)= 3 2 (effet de lob-tention dun diplme dtudes suprieures lorsque lon a dj un bac)

    51

  • CHAPITRE 3. TESTS DE RESTRICTION LINAIRES ET VARIABLESMUETTES

    52

  • Chapitre 4

    Les moindres carrs gnraliss :Htroscdasticit etAutocorrlation

    4.1 Le principe des MCGOn considre le modle y = X + .Jusqu prsent : MCO caractriss par :{

    E() = 0V() = 2I pour = (X

    X)1X y donne{

    E() = V() = 2(X X)1 (1)

    et est estimateur sans biais, efficace (i.e. de variance minimale), convergenten probabilit vers , distribu normalement si est distribu normal et sur degrands chantillons si non normal, distribu asymptotiquement normal.

    Modle de rgression linaire gnralis : MCG{E() = 0V() = 2, matrice dfinie positive

    do en particulier les hypothses 2 et 3 des MCO du chapitre 2 non vrifies : hyp. 2 : homoscdasticit : V(i) = 2, ihyp. 3 : non autocorrlation : Cov(i, j) = 0, i, j tq i 6= jet dans ce cas : pour = (X X)1X y donc = + (X X)1, on a toujoursE() = mais V() = (X X)1X X(X X)1 devient alors :

    V() = 2(X X)1X X(X X)1 (2)

    do les problmes :

    53

  • CHAPITRE 4. LES MOINDRES CARRS GNRALISS :HTROSCDASTICIT ET AUTOCORRLATION

    Si on nglige V() = 2 et quon fait les MCO, quelle est la nature desbiais introduits ? En particulier, avec forme V() = s2(X X)1 tradition-nelle par lintermdiaire de laquelle ont t construits tous les tests ?

    Si les biais sont srieux : important de dtecter les cas de divergence deshypothses traditionnelles des MCO (pb de test) et dy porter remde.

    sur un plan gnral :Nature des biais : non efficace par les MCO (donc les variances ne sont pas

    min). Les tests partir de MCO sont biaiss car V() = s2(X X)1 est biaise :{s2 est estimateur biais de 2(X X)1 nest pas la bonne matrice

    si on laisse de ct pour le moment les problme des tests, les remdes conduisent la procdure des MCG : ide est de transformer y = X + pour retombersur les hypothses des MCO.

    Comment ? Supposons connue : matrice dfinie positive, do matrice Ptelle que 1 = P P . On a donc : = (P P )1 = P1(P )1 do PP =PP1(P )1P = I et donc la procdure des MCG : substituer y = X + lemodle :

    Py = PX + P

    On a :{E(P) = PE() = 0V(P) = E[(P)(P)] = PE[]P = PV()P = 2PP

    En posant y = Py, X = PX , = P, on rcrit le modle :{y = X +

    avec E() = 0 et V() = 2I

    et on peut appliquer les MCO : on obtient un estimateur MCG de :{MCG = (X

    X)1Xy

    V() = s2(XX)1, avec s2 = RSSNK

    Le problme est quen rgle gnrale, est inconnue : il faudrait lestimer enplus de 2, ce qui ferait en tout gnralit N(N+1)

    2paramtres supplmentaires

    estimer, avec N observations. . .impossible. Ainsi, on met habituellement desrestrictions sur la matrice pour pouvoir pratiquer les MCG (en particulier, ht-roscdasticit, autocorrlation). Cela conduit alors remplacer dans les formulesprcdentes par .

    54

  • Economtrie applique

    4.2 HtroscdasticitIci, seule lhypothse 2 des MCO est non vrifie. On a ainsi :

    V() =

    21 0 00

    ...

    ...

    .

    .

    .

    .

    .

    .

    ... 2i

    ...

    .

    .

    .

    .

    .

    .

    ...

    ... 0

    0 0 2N

    Les raisons de lhtroscdasticit : en particulier sur cross-sections (coupesinstantanes) variance des profits des grandes entreprises suprieure celle des petites dpenses des mnages : plus grande variabilit possible pour les hauts revenusExemple 7 voir listing : (document 3 cons, htro-cons-chap4) : Sur le nuage depoints, la variabilit des dpenses de consommation est apparente, et plus videnteencore sur le graphique des rsidus. On a : DepCons = + Revenu + Supposons alors V(i) = 2Revenu2i , de sorte que :

    V() = 2 = 2

    Rev21

    ...

    Rev2i...

    Rev2N

    Il est vident que dans ce cas :

    P =

    1

    Rev1...

    1

    Revi...

    1

    RevN

    , car PP = I

    Ds lors, le modle transform : Py = PX + P scrit :

    DepConsRevenu

    = 1

    Revenu+ +

    Revenu

    55

  • CHAPITRE 4. LES MOINDRES CARRS GNRALISS :HTROSCDASTICIT ET AUTOCORRLATION

    cest--dire : DepRev = InoRev++ terme alatoire, et dans ce cas, par rgres-sion de DepRev sur InoRev on obtient MCG et MCG . On peut comparer :

    MCO Cff Std.Err t P > |t| = 0.899 0.0253 35.53 0

    = 0.847 0.7033 1.20 0.244

    MCG Cff Std.Err t P > |t| = 0.9100 0.0179 52.62 0 = 0.612 0.2664 2.30 0.034

    Var signif 6= 0 signif 6= 0 bien que MCG < MCO en raison de V(MCG) < V(MCO) enparticulier.

    Lapproche gnrale est alors la suivante : dceler lhtroscdasticit avec les tests en cas dhtroscdasticit, procder aux corrections

    4.2.1 Les testsComme la montr lexemple, le comportement des rsidus obtenus par les

    MCO sur y = X + , soit y = X + e, reflte la naturede la distribution des i :Cest pourquoi tous les tests utilisent les rsidus ei des MCO sur y = X +

    Test de White :On teste : H0 [i 2i = 2] contre H1 [H0] = [i 6= j tq. 2i 6= 2j ]. Dans cecas, on ne fait pas davantage dhypothse sur la nature prcise de lhtroscdas-ticit. Le test seffectue alors comme suit : On rgresse les e2i sur la constante,les rgresseurs originaux, leurs carrs et leurs interactions (produits croiss). Parexemple, si le modle est : y = 1+2x2+3x3, alors la rgression de e2i scrit :e2i = 1 + 2x2 + 3x3 + 4x

    22 + 5x

    23 + 6x2x3. On considre le R2 obtenu

    dans cette rgression : sous H0, NR2 suit un 2 5 degrs de libert (nombre dergresseurs, constante exclue).

    Lavantage de ce test est quil est trs gnral. Linconvnient est que si onrejette H0, le test ne nous dit rien sur la nature de lhtroscdasticit et la cor-rection faire. Dans lexemple Htro-Cons : (listing) : R2 = 0.8781 pour largression de e2i sur Revenu, Revenu2, cest--dire : NR2 = 20R2 = 17.562.Mais 20.05(2) = 5.99, et on rejette H0.

    Test de GoldfeldQuandt :

    56

  • Economtrie applique

    Dans le modle : y = X+, on suppose que lune des variables x2, xk, xKest responsable de lhtroscdasticit : par exemple, V(i) = 2x2ik. On alors ra-lise le test comme suit : on range les observations par ordre croissant des valeursde xk et on distingue deux souschantillons :

    ch. 1 : grande variance grandes valeurs de xk, taille N1 ch. 2 : faible variance faibles valeurs de xk, taille N2

    On fait la rgression de y sur x2, . . . xK successivement pour ch. 1 (ce qui donneRSS1) et ch. 2 (RSS2), (avec RSS1 >RSS2) et alors :

    Sous H0 : les variances sont les mmes dans les deux souschantillons etF = RSS1/(N1K)RSS2/(N2K) suit une distribution de Fisher (N1 K,N2 K) degrs delibert (On prend parfois N1, N2 N3 ).

    Dans lexemple HtroCons (listing), on a : RSS2 = 1.893, RSS1 = 20.299et N1K = N2K = 6 do F = 10.723. Comme le fractile 5% dune loi deFisher (6, 6) est : q0.05(F (6, 6)) = 4.28, on rejette lhypothse H0.

    Test de BreuschPagan (ou CookWeisberg) :On fait une hypothse sur lhtroscdasticit du genre :

    V(i) = 2f(0 + 1Z1 + + rZr)

    la forme fonctionnelle f pouvant tre diverse.

    On teste lhypothse H0 [1 = = r = 0]. Pour ce faire, on rgresse lese2i

    RSS/N sur Z1, Zr et tant donne lESS associe cette rgression, sous H0, ona :

    ESSassocie2

    2(r)[dans STATA : la commande hettest ; sans spcification de variables expli-catives de lhtroscdasticit, introduit la variable y. Autrement il faut spcifier :hettest Z1 ... Zr]

    Dans lexemple HtroCons : (listing) avec V(i) = 2f(0 + 1Revenu +2Revenu2) on obtient 2 = 8.30. Or, q

    2

    0.05(2) = 5.991 : on rejette subsquem-ment lhypothse H0.

    4.2.2 Les remdes Si on ne connat rien sur la nature de lhtroscdasticit :

    lissue du test de White, on peut obtenir avec le MCO, une matrice estimedes variances et covariances de plus approprie que s2(X X)1 en prenantpour cette matrice un estimateur de White : avec STATA, utiliser la commande robust

    57

  • CHAPITRE 4. LES MOINDRES CARRS GNRALISS :HTROSCDASTICIT ET AUTOCORRLATION

    Dans lexemple HtroCons : (listing) on obtient les mmes estimateurs =0.847 et = 0.899, mais :

    Std.Err MCO Std.Err Robust t Robust 0.0253 0.0284 31.61 0.7033 0.5267 1.61 non signif

    Si on fait une hypothse sur la nature de lhtroscdasticit :Par exemple :

    V(i) = 2 = 2

    1

    ...

    i...

    N

    avec i = f(0 + 1Zi1 + + rZir). On sait que pour les MCG :

    P =

    11

    ...

    1i

    ...

    1N

    et le MCG est obtenu dans le cadre de la rgression Py = PX+P, cest--direyii

    = 1

    (1i

    )+

    Kk=2

    k

    (xiki

    )+

    ii

    . Ici, les MCG sont souvent appels

    Weighted Least Squares ou MCP (moindres carrs pondrs) ; le poids = 1i

    accord chaque observation i est inversement proportionnel limportance deV(i).

    Le problme est quon ne connat pas : il faut donc lestimer. Aprs avoirrejet lhypothse dhomoscdasticit dans le test de Breusch-Pagan, avec biensouvent comme forme fonctionnelle : V(i) = 2 exp(1Zi1 + + rZir),asymptotiquement connue, on peut crire : e2i = 2i + vi, vi terme derreur. Laprocdure destimation de (id est des i) conduit utiliser lexpression prc-dente. Do :

    e2i = 2 exp(1Zi1 + + rZir) + vi

    Puis :log e2i = log

    2 + 1Zi1 + + rZir + log vi

    58

  • Economtrie applique

    et en rgressant le log e2i sur Z1, Zr, on obtient par les MCO, les 1, r i = exp(1Zi1 + + rZir) do le modle des MCG praticable :

    yii

    = 1

    (1i

    )+

    Kk=2

    k

    (xiki

    )+

    ii

    Dans lexemple HtroCons (listing) : avec lhypothse V(i) = 2 exp(1Revenu+2Revenu2), on obtient les estimateurs MCG suivants :

    Cff t

    0.9117 52.42 5.999 2.68

    Cff t

    0.9100 52.62 0.612 2.30

    MCG avec 1i

    MCG avec 1Revenu prcdent

    4.3 LAutocorrlation

    4.3.1 GnralitsIl peut advenir que V() 6= 2I car cov(i, is) 6= 0 pour certains i et s. Cest

    par exemple le cas dans des chantillons coupe instantane si lordre des indicesdobservation traduit un ordre naturel. Mais cela arrive aussi surtout dans desdonnes longitudinales o lordre temporel a une importance.

    exemple 8 : Icecream-Chap.4 - Autocorrlation Document 3 cons (listing)Consommation de crme glace sur des donnes mensuelles. Si on rgresse :

    const = 1 + 2 pricet + 3 incomet + t= 0.90 2.03 pricet + 0.0002135 incomet

    Cependant, on obtient quasiment rien de significatif, sauf la constante, la ri-gueur : les variances des MCO sont surestimes (non efficaces). Le graphe de laconsommation prdite par la rgression et la consommation observes en fonctionde time est suggestif, et les deux graphiques concernant les rsidus et qui montrentla persistence deffets de mme sens le sont plus encore : et1 > 0 et > 0 etet1 < 0 et < 0, cest--dire quon a covariation positive de et, et1, ou en-core autocorrlation positive (cf. graph. et, et1). Comme le comportement desrsidus est cens reflter la comportement des t (mais pas toujours), cela suggre

    59

  • CHAPITRE 4. LES MOINDRES CARRS GNRALISS :HTROSCDASTICIT ET AUTOCORRLATION

    pour le t un phnomne dautocorrlation du premier ordre : processus AR(1),autorgressif dordre 1 dfini par :{t = t1 + ut, t [1, T ]E(ut) = 0, t V(ut) = 2u, cov(ut, ut) = 0 et cov(ut, tr) = 0 pour r 1

    Effets dautocorrlation : On a les mme effets que prcdemment : comme 6= I , la matrice estime des variances et convariances de usuelle, s2(X X)1est biaise car la formule approprie est V() = 2(X X)1X X(X X)1.Cela donne lieu des tests incorrects dans leur conclusion. Les effets sont surtouttudis pour les AR(1). On a les rsultats suivants si || < 1 :

    t = t1 + utt1 = t2 + ut1

    t = ut + ut1 + 2ut2 + Il vient :

    t =+r=0

    rutr

    On a alors1 :

    E(t) = E(ut)+r=0

    r = E(ut)1

    1 = 0

    Comme les cov(ut, ut) sont nulles, on obtient :

    V(t) =+r=0

    V(rutr) = V(ut)+r=0

    2r

    ou encore :

    V(t) = 2u1

    1 2 = 2

    Pour les covariances, on a :

    cov(t, ts) = s2

    1La condition || < 1 assure la convergence de+r=0 r60

  • Economtrie applique

    En effet :

    cov(t, t1) = E(tt1) = E((t1 + ut)t1)= E(2t1 + utt1)= 2

    cov(t, t2) = E(tt2) = E((t1 + ut)t2)= E(t1t2 + utt2)= E(t1t2) = (2)= 22

    et cetera. . .Do finalement :

    2 =2u

    1 2

    1 2 T1 1 T22

    ...

    ...

    ...

    .

    .

    .

    .

    .

    .

    ...

    T1 T2 1

    Dans ce cas, comme prcdemment, MCO est non efficace et donc les V(k)

    calculs partir de s2(X X)1 ne sont pas minimales et en particulier les tstatsont sous-estimes.

    4.3.2 Les tests dautocorrlation AR(1) : t = t1 + utLide est la suivante : sil y a autocorrlation dans les t, ceci se refltera dans

    les et obtenus par les MCO. On construit alors un test partir des rsidus.

    test du 2 :On rgresse et sur et1. On calcule alors (T 1)R2 qui suit, sous lhypothsenulle [ = 0], un 2 1 degr de libert. Ce test nest quasymptotiquementvalable (donc pour de grands chantillons). On utilise donc usuellement un autretest :

    test de DurbinWatson :Si lautocorrlation est (+), les t successifs sont frquemment de mme signe,si lautocorrlation est () les signes alternent souvent. Ceci se reflte dans les

    61

  • CHAPITRE 4. LES MOINDRES CARRS GNRALISS :HTROSCDASTICIT ET AUTOCORRLATION

    rsidus. Ainsi, si on considre la statistique suivante :

    d =

    Tt=2

    (et et1)2

    Tt=1

    e2t

    Il se trouve que :{avec une autocorrlation (+), [et et et1 souvent de mme signe] d faibleavec une autocorrlation (), [et et et1 frquemment de signe 6=] d fort

    On peut alors se demander quel est lintervalle de valeurs dans lequel varie d.Le numrateur scrit :

    Tt=2

    (et et1)2 =Tt=2

    e2t Tt=2

    e2t1 2Tt=2

    etet1

    Or les termes suivants sont sensiblement gaux :

    Tt=1

    e2t Tt=2

    e2t Tt=2

    e2t1

    Il vient alors :

    d 2

    1Tt=2

    etet1

    Tt=1

    e2t

    Or le cfficient dautocorrlation du premier ordre entre les rsidus scrit :

    rt,t1 =

    Tt=2

    (et e)(et1 e) Tt=2

    (et e)2 T

    t=2

    (et1 e)2

    Tt=2

    etet1

    Tt=2

    e2t

    , car e = 0

    On a donc : d = 2(1 rt,t1) et comme rt,t1 [1,+1], on a d [0, 4]. On litdonc dans la table de DurbinWatson deux valeurs dinf et dsup (en fonction de Tet du nombre de rgresseurs) ce qui donne :

    62

  • Economtrie applique

    d 0 dinf dsup 2 4 dsup 4 dinf 4autocor. (+) indter. rej. hyp. autocor. indter. autocor. ()

    TAB. 4.1 DurbinWatson

    Rem. : Cela suppose que la rgression contient un terme constant et ce nestdivemment indicatif que dun AR(1). Il ny a pas de variance explique en-dogne dtache.Il est noter lexistence dautres tests plus gnraux, tels queBreuschGodfrey par exemple qui teste des AR(p) ou MA(p).

    Dans lexemple 8 : Icecream-chap4. Autocorrlation (listing), on a : d =0.4235 et d(3, 30) dans la table donne 1.28 (3 est le nombre de rgresseurs, constanteincluse) Do une autocorrlation (+).

    4.3.3 Les remdesUne explication de lautocorrlation peut tenir lexistense de variables ex-

    plicatives mises dans la rgression qui sont autocorrles et apparaissent subs-quemment dans les rsidus.

    Dans lexemple 8 : Icecream chap4. Autocorrlation (listing)Lautocorrlation peut tre en partie explique par loubli de la variable temp-rature (variable autocorrle) et ayant une influence sur la cons dicecream. Voirgraphique de cons, temprature /100, price en fonction de time. Cest pourquoion sest propos dinclure la variable temp dans la liste des rgresseurs : onobtient les rsultats sur listing. On peut noter, par rapport la rgression de conssur income et price que temp est significative mais galement income. Il subsistecependant de lautocorrlation : d = 1.021169 et dinf = 1.21 et les tests usuelsdes MCO sont encore biaiss. On propose alors les remdes suivants :

    Correction de NeweyWest :Elle est analogue la correction de White pour obtenir de meilleurs estimateursdes catiances et covariances des k sous MCO : sur lexemple Icecream. Chap4. :dans STATA :

    newey cons income price temp, lag(1)

    ou avec lag(2), mais cela namliore pas les k pour des k qui restent ceuxdes MCO.

    Ce test : newey y x1 ...xk ...xK, lag(1) est cens corriger lesk en cas dhtroscdasticit et dautocorrlation de nature non spcifie. Laprcision lag(l) est ncessaire ; l est lcart maximal dans le temps prendre en

    63

  • CHAPITRE 4. LES MOINDRES CARRS GNRALISS :HTROSCDASTICIT ET AUTOCORRLATION

    considration pour autocorrlation. Le cas particulier l = 0 revient la correctionde White pour lhtroscdasticit.

    Les MCG : avec AR(1), on rappelle que :

    2 =2u

    1 2

    1 2 T1 1 T22

    ...

    ...

    ...

    .

    .

    .

    .

    .

    .

    ...

    T1 T2 1

    et il vient alors2 :

    P =

    1 2 0 . . . . . . 0 1 . . . ...0 1 . . . ....

    .

    .

    ...

    ...

    ... 0

    0 . . . 0 1

    de sorte que pour les MCG, Py = (PX)+P, cela donne, si on note x1, x2, . . . xTles vecteurs ligne de la matrice X :

    Py =

    1 2y1y2 y1

    .

    .

    .

    yt yt1.

    .

    .

    yT yT1

    PX =

    1 2x1x2 x1

    .

    .

    .

    xt xt1.

    .

    .

    xT xT1

    et :

    P =

    1 212 1

    .

    .

    .

    t t1.

    .

    .

    T T1

    =

    1 21u2.

    .

    .

    ut.

    .

    .

    uT

    2aprs calculs

    64

  • Economtrie applique

    Le modle des MCG scrit alors :pour t = 1,

    1 2y1 =

    1 21 +

    Kk=2

    k1 2xk +

    1 21

    pour t 6= 1, yt yt1 = (1 )1 +Kk=2

    k(xtk xt1,k) + t t1

    ce qui est, sauf pour lobservation t = 1, ce quon obtient en faisant les diffrencesdu premier ordre :

    yt = 1 +Kk=2

    kxtk + t

    yt1 = 1 +Kk=2

    kxt1,k + t1

    En soustrayant :

    yt yt1 = (1 )1 +Kk=2

    k(xtk xt1,k) + t t1 =ut

    Le problme est que est inconnu. On peut lestimer cependant de diffrentesfaons (cf. PraisWinsten) : par ex. :

    cfficient dautocorrlation du premier ordre : = rt,t1 avec le d de DurbinWatson : d = 2(1 r) puis = 1 d

    2

    On utilise ensuite pour les MCG praticables : on peut faire soit : Les MCG complets : en conservant la premire observation, estimateurs de

    PraisWinsten MCG Les MCG sur les T1 obs ; en liminant la premire observation, estimateur

    de CochraneOrcuttEn rgle gnrale, les MCG sont itratifs, ce qui veut dire :

    1. Les MCO sur y = X + donnent e rsidus et estims puis MCG()donne MCG

    2. On obtient alors de nouveaux rsidus e = y XMCG, ce qui donne alors estim. Puis MCG() donne MCG

    3. Nouveaux rsidus e = y XMCG ;MCG(); MCG etc. . .On sarrte lorsque le rsultat est stationnaire (mini e2i ). Cette dmarche estcritiquable puisque de toutes faons, les estimateurs sont efficaces chaque tape

    65

  • CHAPITRE 4. LES MOINDRES CARRS GNRALISS :HTROSCDASTICIT ET AUTOCORRLATION

    et cela ne converge pas ncessairement vers le maximum de vraisemblance. Onaura un minimum local.

    Voir listing exemple 8 : Icecream. chap4. pour applications de ces MCG : Lesrsultats sont variables ( !) en fonction de la procdure choisie.

    4.4 Complments mathmatiquesReprsentation de la notion dhomoscdasticitLhomoscdasticit dsigne la situation o la variable stochastique garde

    la mme distribution quelque soit les valeurs des variables explicatives. Dans lecas dune rgression simple, on peut reprsenter cette hypothse en dessinant audessus de la droite de rgression thorique y = x+ les distribution identiquesdes pour chaque x : Figure 4.1.

    Densit

    b

    b

    b

    b

    b

    b

    b

    b

    b E(y) = 0 + 1x

    y

    2 est constant

    x

    FIG. 4.1 Rgression, hypothse dhomoscdasticit

    Inversement, dans le cas de lhtroscdasticit, cette distribution nest pasforcment la mme pour tout x. Un cas frquent est celui dune augmentation dela variabilit de y pour des plus grandes valeurs de x, la distribution des i estdonc plus tale pour des xi plus grands : Figure 4.2.

    66

  • Economtrie applique

    Densit

    b

    b

    b

    b

    b

    b

    b

    b

    b

    b

    b

    b

    E(y) = 0 + 1x

    y

    x

    2 nest pas constant

    FIG. 4.2 Cas dhtroscdasticit

    67

  • CHAPITRE 4. LES MOINDRES CARRS GNRALISS :HTROSCDASTICIT ET AUTOCORRLATION

    68

  • Chapitre 5

    Endognit et variablesinstrumentales

    5.1 Endognit des rgresseursParmi les hypothses poses par les MCO, lune est quil ny a pas de corrla-

    tion entre les observations x et les termes derreur :

    cov(xk, k) = 0 k

    Dans le cas contraire, si dans lquation y = 1+K

    k=2 kxk+, il existe unevariable xk telle que cov(xk, k) 6= 0, alors cette variable est appele une variableendogne.

    5.1.1 Les sources de lendognitLes erreurs de mesure.

    Prenons un exemple dans le cadre de la rgression simple. Soit :

    (5.1) y = + W + v

    Le terme v reprsente lerreur, avec E(v) = 0, Var(v) = 2v et cov(W, v) = 0. Sup-posons, par exemple, que W reprsente le revenu disponible, et y lpargne. Sup-posons prsent que ce revenu disponibles nest pas mesur de manire exacte.On mesure en ralit x tel que :

    (5.2) x = W + u

    Avec E(u) = 0, Var(u) = 2u et cov(u, v) = cov(u,W ) = 0.

    69

  • CHAPITRE 5. ENDOGNIT ET VARIABLES INSTRUMENTALES

    De (5.1) et (5.2), on a :(5.3) y = + x+ Avec = v u. Do, videmment, cov(xk, k) 6= 0 puisque xk est fonction deuk, daprs (5.2).

    Si, sur un chantillon dobservations, on estime avec lquation (5.3) :

    =

    i(xi x)(yi y)

    i(xi x)2

    Comme par ailleurs :

    yi y = (xi x) + (i )Il vient :

    = +1N

    i(xi x)(i )

    1N

    i(xi x)2

    Quand N +, la covariance empirique1 et la variance empirique convergenten probabilit vers la covariance et la variance de la population. On a donc :

    p + cov(x, )

    Var(x)

    En consquence, lestimateur des MCO est non convergent en probabilit vers si cov(x, ) 6= 0.

    Mesure du biais :

    cov(x, ) = cov(W + u, v u) = E [(W + u E(W + u)) (v u)]= E [(W E(W ) + u) (v u)]= E[((W E(W ))v] E[((W E(W ))u] + E[uv] E[u2]= 2u

    Var(x) = Var(W + u) = Var(W ) + Var(u) + 2cov(W,u) = 2W + 2uDo :

    plim = (1

    2u

    2W + 2u

    )=

    (1

    1 + 2u/2W

    )Il ny a donc convergence en probabilit de vers que si 2u = 0. Cest dire

    sil ny a pas derreurs de mesure. Le rapport 2u/2W peut tre compris comme lerapport du bruit sur le vrai signal, plus il est lev, plus le biais est important.

    1Cest dire calcule sur lchantillon.

    70

  • Economtrie applique

    Le problme de la simultanit (modle quations simultanes)Soit le modle keynsien :{

    c = + y + (5.4)y = c+ z(5.5) c : consommation par ttey : revenu par ttez : autres dpenses (exogne)

    On suppose que lon a : E() = 0, Var() = 2 et cov(z, ) = 0. Ici, y est endo-gne : elle est simultanment dtermine avec c, elle est donc fonction de danslquation de consommation macro.

    De la forme structurelle :[1 1 1

    ] [cy

    ]=

    [ 00 1

    ] [1z

    ]+

    [0

    ]On va tirer la forme rduite qui exprime les variables endognes c et y en fonctiondes variables exognes z et des constantes :

    c =

    1 +

    1 z +1

    1 (5.6)

    y =

    1 +1

    1 z +1

    1 (5.7)

    On voit bien que c et y endognes (car fonction de ) do de par MCO sur (5.4)on a :

    =

    t(ct c)(yt y)

    t(yt y)2=

    ScySyy

    avec ct c = (yt y) + (t ) il vient :

    = +1N

    t(yt y)(t )

    1N

    t(yt y)2

    Et donc :plim = + cov(y, )

    Var(y)

    donc par les MCO sur (5.4) ne converge pas en probabilit vers .

    Mesure du biais

    71

  • CHAPITRE 5. ENDOGNIT ET VARIABLES INSTRUMENTALES

    cov(y, ) =1

    1 cov(z, ) +1

    1 Var() =2

    1 Var(y) = Var(

    1

    1 z +1

    1 ) =1

    (1 )2Var(z + )

    =1

    (1 )2 [Var(z) + 2]

    Do :plim = + (1 )

    2

    V (z) + 2

    et comme 0 < < 1, il y a une surestimation de .

    5.2 Correction des biais : la mthode des variablesinstrumentales

    Reprenons le modle keynsien (quation 5.4) :c = + y +

    On a vu que cov(y, ) 6= 0 do lexistence dun biais de simultanit :

    plim = + cov(y, )Var(y)

    Variable instrumentale : on appelle variable instrumentale une variable noncorrle avec et cependant corrle avec la variable explicative endogne. Icicest le cas de z, car cov(z, ) = 0, et dans lquation (5.5), y = c + z, on acov(y, z) 6= 0. Par ailleurs, on a :

    ct = + yt + t

    (ct c) = (yt y) + (t )t

    (ct c)(zt z) = t

    (yt y)(zt z) +t

    (t )(zt z)

    (5.8) SczSyz

    = +

    t(t )(zt z)

    Syz

    Lorsque le nombre dobservation T tend vers linfini on a :t

    (t )(zt z) p cov(z, ) = 0

    72

  • Economtrie applique

    Do plim SczSyz

    = . On pose ds lors :

    SczSyz

    = IV

    On appelle IV lestimateur de par la mthode des variables instrumentales, ztant ici "linstrument".

    On remarque que :

    SczSyz

    = IV 6= MCO = ScySyy

    Gnralisation de la mthode des IV :Soit :

    yi = 1 + 2x2i + 3x3i + i

    Aprs centrage, on obtient :

    yci = 2xc2i + 3x

    c3i + ei i

    Donc, quand on calcule ces 2 et 3, on pose le systme dquation linaires sui-vant, appel systme des quations normales2 :

    i

    eixc2i = 0(5.9)

    i

    eixc3i = 0(5.10)

    Do :

    i

    (yci 2xc2i + 3xc3i)xc2i = 0(5.11) i

    (yci 2xc2i + 3xc3i)xc3i = 0(5.12)

    {Sy2 2S22 3S23 = 0Sy3 2S32 3S33 = 0

    Soit encore :

    X cyc (X cXc)c = 0 c = (X cXc)1X cyc2Voir p. 7

    73

  • CHAPITRE 5. ENDOGNIT ET VARIABLES INSTRUMENTALES

    Ce rsultat nest justifi que si (5.10) et (5.10) sont vrifies, ce qui renvoit auxhypothses cov(x2, ) = 0 et cov(x3, ) = 0.

    Supposons x3 endogne : cov(x3, ) 6= 0, et ainsi lutilisation de (5.10)est non justifie. Il faut trouver un instrument z3 tel que cov(x3, z3) 6= 0, etcov(z3, ) = 0. Il est alors justifi de remplacer (5.10) pari eizc3i = 0. Do :{

    i(yci 2,IV xc2i + 3,IV xc3i)xc2i = 0

    i(yci 2,IV xc2i + 3,IV xc3i)zc3i = 0

    Soit encore :{Sy2 2,IV S22 3,IV S23 = 0(5.13)Syz3 2,IV Sz32 3,IV S3z3 = 0(5.14)

    Do, sous forme matricielle, en posant Zc = [xc2, zc3], Zc matrice des variablesinstrumentales (avec x2 exogne, linstrument pour x2 est x2 elle mme). Do(5.14) et (5.14) peuvent alors scrire :

    Z cyc (Z cXc)c,IV = 0

    au lieu de :

    X cyc (X cXc)c,MCO = 0

    Lestimateur par variables instrumentales est donc :

    c,IV = (ZcXc)

    1Z cyc

    Avec yc = Xcc + ( ), il vient :

    c,IV = (ZcXc)

    1Z c(Xcc + ( )) = c + (Z cXc)1Z c

    En consquence, quant la taille de lchantillon augmente, Z c, vecteur descomposantes

    i x

    c2ii et

    i z

    c3ii tend vers cov(x2, ) et cov(z3, ) donc vers le

    vecteur nul et ainsi plim c,IV = c.

    74

  • Economtrie applique

    Modle

    Termes derreurdt, ot

    Variables exognesrt, mt

    Structure du modleparamtres j , et j

    Variables endognesqt, et pt

    FIG. 5.1 Identification du modle

    5.3 LidentificationQuest-ce quun modle ?Exemple : quilibre partiel sur un march :

    qd = 1 + 2p+ 3r + d (demande)qo = 1 + 2p+ 3m+ o (offre)qd = qo (quilibre)

    La forme structurelle du modle scrit :{q = 1 + 2p+ 3r + d (demande)q = 1 + 2p+ 3m+ o (offre)

    Ici : r reprsente le revenu national (exogne), m les conditions mtorologiques(exogne). On a donc : cov(r, d) = cov(r, 0) = 0 et cov(m, d) = cov(m, 0) =0. Il y a donc deux variables endognes, q et p, et deux variables exognes r et m.Toute variable endogne est fonction de tous les termes derreur : ceci apparat

    de manire vidente avec la forme rduite du modle : elle consiste crire lesvariables endognes comme fonction des seules variables exognes et des termesderreur de la forme structurelle.[

    1 21 2

    ] [qp

    ]=

    [1 b3 01 0 3

    ] 1rm

    + [ do

    ]

    Solution de :q = 21 + 12

    2 2 +32

    2 2 r 23

    2 2m+2d 2o2 2

    q = 1 12 2 +

    32 2 r

    32 2m+

    d o2 2

    75

  • CHAPITRE 5. ENDOGNIT ET VARIABLES INSTRUMENTALES

    Cette forme rduite scrit sous la forme :{q = 1 + 2r 3m+ uqq = 1 + 2r 3m+ up

    On peut dfinir certaines caractristiques dun modle. On dit quil est completsil a autant dquations que de variables endognes. On dit quune quation estidentifie si on dispose de suffisament de variables instrumentales pour lever lesbiais dendognit, c-a-d :

    Le nombre de variables exognes exclues de lquation est au moins gal aunombre de variables endognes explicatives de cette quation (condition dordre).

    On dit quun modle est identifi si chaque quation du modle est identifie.

    Prenons la fonction de demande : qd = 1 + 2p+ 3r + dLes instruments disponibles sont les variables exognes du modle, soit r et

    m. Il y a un problme avec 2 car p est une variable endogne. Il faut donc unevariable exogne (diffrente de r) pour lever le biais. On peut ici utiliser m. Lamthode des variables instrumentales consiste poser :

    Zc = [mc, rc], Xc = [p

    c, rc]

    et(Z cxc)c,IV = z

    cqc

    Ce qui donne :

    {Sqm = Smp2,IV + Sm23,IVSqr = Spr2,IV + S223,IV

    Car

    [ mc rc

    ].

    .

    .

    .

    .

    .

    pc mc

    .

    .

    .

    .

    .

    .

    [ 2,IV3,IV

    ]=

    [ mc rc

    ].

    .

    .

    qc

    .

    .

    .

    De mme pour la fonction doffre : qo = 1 + 2p+ 3r + oLa variable p est l encore endogne, mais r est exclue de lquation, elle

    constitue donc un instrument possible :

    Zc = [rc, mc], Xc = [p

    c, mc]

    Ici le modle est identifi car chaque quation est identifie.

    76

  • Economtrie applique

    Cela nest pas le cas du modle de march prcdemment examin :{qd = + p+ dqd = + p+ o

    {

    q = + p+ dq = + p+ o

    Il ny a pas ici dinstruments pour lever le biais dendognit de p, dans aucunedes quations. La constante 1 est quivalente une variable endogne, mais elleest utilise pour estimer la constante dans la rgression.

    Il est possible dappliquer les MCO sur donnes non centres par rapport auxvaleurs moyennes pour calculer et . Par exemple partir des deux quationsnormales : {

    i ei1 = 0i eipi = 0

    avec ei = qi pi. Do :{ i qi N (

    i pi) = 0

    i qipi (

    i pi) (

    i p2i ) = 0

    {

    N+ (

    i pi) =

    i qi(

    i pi) + (

    i p2i ) =

    i qipi

    Mais p est endogne et ne peut donc pas tre utilis dans lquation

    i eipi = 0.Ceci est visible sur la forme rduite du modle :

    q =

    d +

    op =

    1

    d +1

    o

    Soit encore :{q = + uq

    p = + up

    Les quations de la forme rduite sont ici identifies (il ny a pas de variablesexplicatives endognes). Les MCO sont donc justifis : MCO et MCO sont desestimations de (= q) et (= p), les valeurs dquilibre du march : MCO = qet MCO = p.

    Mais il nest pas possible de remonter de et au calcul des paramtres de laforme structurelle (MCI). Car :

    = =

    Ce sont l deux quations quatre inconnues.

    77

  • CHAPITRE 5. ENDOGNIT ET VARIABLES INSTRUMENTALES

    Cela aurait t possible dans un modle identifi : la mthode des IV revient estimer les paramtres de la forme rduite et remonter de ces estimations auxparamtres de la forme structurelle. Cest le cas du modle de march avec p, m,r comme variables.

    Cest galement le cas du modle keynsien :

    Formestructurelle

    {c = + y + y = c+ z

    Formerduite

    c =

    1 +

    1 z +1

    1

    y =

    1 +1

    1 z +1

    1

    On peut estimer ici les paramtres de la forme rduite par les MCO :{c = 1 + 2z + ucy = 1 + 2z + uy

    Ceci donne en particulier :

    2MCO =SczSzz

    2MCO =SyzSzz

    Or = 2/2, do MCI = Scz/Syz, cest dire le mme rsultat que celuidonn par les IV. Le calcul de lestimation de ne peut se faire partir de :

    i eiyci = 0 avec ei = c

    ci yci . On utilise donc z comme variable instrumentale :

    i

    eizci = 0 =

    i

    (cci IVyci )zci = 0

    donne :Scz IVSyz = 0 IV = Scz

    Syz

    5.4 Suridentification et doubles moindres carrsSoit le modle, sous forme structurelle :

    qo = 1 + 2p+ o (offre)qd = 1 + 2p+ 3y + 4w + d (demande)qd = qo = q (quilibre)

    Les variables y et w sont ici exognes. La courbe de demande est sous-identifie :il ny a pas de variable exogne exclue de lquation pour lever le biais dendo-gnit de p. La courbe doffre est par contre sur-identifie puisquil existe deuxvariables exognes pour lever le biais dendognit de p. On peut utiliser :

    78

  • Economtrie applique

    Soit y comme variable instrumentale :

    i eiyci = 0, ei = q

    ci 2pci . Avec :

    2,IV =SqySpy

    Soit w comme variable instrumentale :

    i eiwci = 0, ei = q

    ci 2pci . Avec :

    2,IV =SqwSpw

    On dispose donc potentiellement de deux estimateurs, chacun tendant en proba-bilit vers 2. Les valeurs estimes obtenues avec chacun de ces estimateurs sontcependant diffrentes. Ceci se retrouve avec les MCI : il y a deux manires diff-rentes de calculer 2 partir des paramtres de la forme rduite. La forme struc-turelle du modle sans les constantes scrit :{

    qc = 2pc + o

    pc = 2pc + 3y

    c + 4wc + d

    La forme rduite est :qc =

    232 3y

    c +24

    2 2wc + uq

    qc =3

    2 3yc +

    42 2w

    c + up

    do :{qc = yy

    c + wwc + uq

    qc = yyc + ww

    c + up

    Et : 2 = y/y = w/w. On a donc, partir de lestimateur de la forme rduitedeux estimateurs de 2 :

    2,IV =y

    yet 2,IV =

    w

    w

    La mthode des doubles moindres carrs (two stages least squares, 2SLS) consiste ne pas renoncer linformation disponible la fois sur y et w. Lide est dedfinir une variable z qui utilise toute linformation disponible sur y et w, aveccov(z, p) 6= 0 et comme y et w sont des variables exognes : cov(y, d,o) =cov(w, d,o) = 0, alors on peut trouver p, fonction linaire de y et w tel quecov(p, d,o) = 0. La mthode des doubles moindres carrs consiste utiliser pcomme "instrument" : on rgresse q sur p pour estimer 2.

    79

  • CHAPITRE 5. ENDOGNIT ET VARIABLES INSTRUMENTALES

    On remarquera que lorsquune quation est exactement identifie, on a :MCI=IV=2SLS. Par exemple :

    qo = 1 + 2p+ o (offre)qd = 1 + 2p+ 3y + d (demande)qd = qo = q (quilibre)

    ou encore (forme structurelle) :{qc = 2p

    c + opc = 2p

    c + 3yc ++d

    Ce qui donne, sous forme rduite :qc =

    232 2y

    c + uq

    pc =3

    2 2yc + up

    {

    qc = yyc + uq