MODELLO DI REGRESSIONE LINEARE MULTIPLA 1. Modello e assunzioni 2.

57 Slides736.50 KB

MODELLO DI REGRESSIONE LINEARE MULTIPLA 1. Modello e assunzioni 2. Stimatori OLS e proprietà 3. R2, variabilità totale, spiegata e residua 4. Previsione 5. Test per la verifica di ipotesi 6. Variabili dummy 7. Multicollinearità 8. Eteroschedasticità 9. Autocorrelazione dei residui 1

REGRESSIONE LINEARE MULTIPLA: IL PROBLEMA Ricerca di un modello matematico in grado di esprimere la relazione esistente tra una variabile di risposta y (quantitativa) e ( ad esempio) k variabili esplicative Si tratta di una relazione asimmetrica del tipo y f x1. xk Nel caso del modello di regr.lineare multipla abbiamo che: f x1. xk 1 x1 2 x2 . k xk che geometricamente corrisponde ad un iperpiano a k dimensioni Perché si studia tale modello i) facilità con cui può essere interpretato un iperpiano a k dimensioni ii) ii) Facilità di stima dei parametri incogniti j ( j 1 k) Nella realtà studiamo un modello del tipo y f x1. xk u Componente sistematica componente casuale 2

IL MODELLO yi 1 xi1 2 xi 2 3 xi 3 . k xik ui In forma matriciale y X u dove y : vettore (n x 1) di osservazioni sulla variabile dipendente X : matrice (n x k) di osservazioni su k regressori u : vettore (k x 1) di parametri incogniti : vettore (n x 1) di disturbi stocastici 3

Le matrici e i vettori sono così definiti y1 y2 . y n 1 . . y n 1 2 . k 1 . . k x11 x21 . X n k . . x n1 x12 . . . x22 . . . . . . . . . . . . . . . xn 2 . . . x1k x2 k . . . xnk u1 u2 . u n 1 . . u n N.B. La matrice X ha la prima colonna unitaria nel caso in cui si consideri un modello con intercetta 1 nel sistema di riferimento multidimensionale 4

ASSUNZIONI DEL MODELLO 1) Esiste legame lineare tra variabile dipendente e regressori 2) Le variabili sono tutte osservabili 3) I coefficienti i non sono v.c. 4) I regressori X sono non stocastici 5) 6) 7) Il termine u non è osservabile E ui 0 0 per i j Cov ui , u j 2 per i j le ui sono omoschedastiche ed incorrelate 2 0 2 0 E uu . . 0 0 0 . . 0 0 . . 0 . . . . 2 . . . 8) X ha rango pieno rank (X) k 9) condizione necessaria n k u N 0, 2 I hp aggiuntiva da utilizzare nell’analisi inferenziale 5

STIMATORE OLS Y X u Si cercherà quel vettore ̂ che minimizza gli scarti al quadrato: 2 n min yi X i i:1 dove Xi è la riga i-esima di X In forma matriciale e uˆ y X min e e o min y X y X Q e e y X y X y X y X y y X y y X X X perché scalare Q 2 X y 2 X X 0 (1) 6

k n perché n 1 1 1 . 1 y1 1 x21 x22 . . x2 n y2 1 k X y 1 . k x31 x32 . . x3n . . . . . . . x y . . . x kn n k1 è uno scalare X y X y y X dalla (1) si ottiene 2 X X 2 X y X X X y pre-moltiplicando ambo i membri 1 1 X X X X X X X y perché rank (X’X) rank (X) k X’X è a rango pieno ovvero invertibile 1 ˆ X X X y stimatore OLS di 7

CARATTERISTICHE STIMATORE OLS Teorema di Gauss-Markov ̂ è uno stimatore di tipo BLUE Best Linear Unbiased Estimator ovvero ha varianza minima nella classe degli stimatori Lineari e Corretti 1 ˆ X X X y 1. 1 La matrice X X X è formata da elementi costanti per cui ̂ è una trasformazione lineare di y . ˆ X X 1 X y X X 1 X X u 2. 1 1 X X X X X X X u 1 X X X u 1 E ˆ X X X ' E u È uno stimatore corretto Inoltre: ˆ X X 1 X u 8

ˆ ˆ ˆ Var E 3. 1 E X X X u u X X X 1 1 1 X X X E u u X X X 1 1 2 XX X I X XX 1 1 2 X X X X X X 2 X X ˆ ˆ E : Si consideri più in dettaglio E ˆ 2 1 1 ˆ ˆ E 1 1 2 2 . ˆ ˆ E k k 1 1 1 E ˆ 1 1 ˆ 2 2 . . E ˆ 1 1 ˆ k k 2 ˆ E 2 2 . . . . . . . 2 ˆ . . . E k k 2 ˆ Pertanto la varianza E j j di ogni parametro ̂ j si desume prendendo il corrispondente valore 1 X X sulla diagonale principale della , moltiplicato 2 per : 1 Var ˆ j X X jj 2 9

2 STIMA ̂ 2 DI e y X ˆ X u X X X X X u 1 1 X u X X X X X u 1 I X X X X u M X u MX n n MX 1. 2. è simmetrica e idempotente, cioè: 1 X I X X X 1 M X I X X X X I X X X X M X 1 M X2 I X X X 1 1 1 X 1 1 I X X X X X X X X X X X X X X X X 1 I X X X X M X Da queste proprietà di MX si ottiene Q e e u M X M X u u M X u E e e E tr e e perché scalare E tr u M X u E tr M X uu tr(ABC) tr(BCA) tr E M X uu tr M X 2 tr(BAC)10

1 2tr I n X X X X n tr X X 1 2 tr I n tr X X X X 2 1 X X 2 n tr I k 2 n k Se definiamo e e ˆ n k 2 1 ˆ n k E n k 2 2 2 è uno stimatore corretto ESEMPIO (Greene p.200) Gi 1 2 Pgi 3 yi 4 Pqi ui i : 1960 1986 , n 27 Gi consumo di benzina in Pgi indice dei prezzi benzina Yi reddito pro-capite in Pqi indice dei prezzi auto nuove 11

Vettore y x1 x2 121.01034 130.20306 136.62968 134.39852 150.34150 171.88391 175.44395 172.03874 198.65222 208.37573 214.38531 228.52113 237.37202 234.34193 222.32567 228.16247 242.33362 248.32557 240.93266 229.58893 227.13648 210.44373 236.85998 255.36365 243.75057 277.31965 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0.9250000 0.9140000 0.9190000 0.9180000 0.9140000 0.9490000 0.9700000 1.0000000 1.0470000 1.0560000 1.0630000 1.0760000 1.1810000 1.5990000 1.7080000 1.7790000 1.8820000 1.9630000 2.6560000 3.6910000 4.1090000 3.8940000 3.7640000 3.7070000 3.7380000 2.9210000 x3 6036.0000 6113.0000 6271.0000 6378.0000 6727.0000 7027.0000 7280.0000 7513.0000 7891.0000 8134.0000 8322.0000 8562.0000 9042.0000 8867.0000 8944.0000 9175.0000 9381.0000 9735.0000 9829.0000 9722.0000 9769.0000 9725.0000 9930.0000 10421.000 10563.000 10780.000 x4 1.0450000 1.0450000 1.0410000 1.0350000 1.0320000 1.0090000 0.9910000 1.0000000 1.0440000 1.0760000 1.1200000 1.1100000 1.1110000 1.1750000 1.2760000 1.3570000 1.4290000 1.5380000 1.6600000 1.7930000 1.9020000 1.9760000 2.0260000 2.0850000 2.1520000 2.2400000 Matrice X’X; 27.000000 51.357000 229865.00 37.296000 Matrice inv (X’X); 51.357000 133.15081 473127.10 83.319118 2.6605735 0.51586178 0.51586178 0.30384762 -0.00029970528 -6.4047001e-07 -0.76246362 -0.78790617 Stime b inv(X’X) * X’y; -89.761482 -12.588147 0.039938109 229865.00 473127.10 2.0120502e 09 331319.22 37.296000 83.319118 331319.22 56.280428 -0.00029970528 -0.76246362 -6.4047001e-07 -0.78790617 6.6199636e-08 -0.00019015563 -0.00019015563 2.8089108 12

Y 121.01034 130.20306 136.62968 134.39852 150.34150 171.88391 175.44395 172.03874 198.65222 208.37573 n 10 X1 1.0000000 1.0000000 1.0000000 1.0000000 1.0000000 1.0000000 1.0000000 1.0000000 1.0000000 1.0000000 X2 0.92500000 0.91400000 0.91900000 0.91800000 0.91400000 0.94900000 0.97000000 1.00000000 1.04700000 1.05600000 X3 6036.0000 6113.0000 6271.0000 6378.0000 6727.0000 7027.0000 7280.0000 7513.0000 7891.0000 8134.0000 X4 1.0450000 1.0450000 1.0410000 1.0350000 1.0320000 1.0090000 0.9910000 1.0000000 1.0440000 1.0760000 (X’X) 10.000000 9.6120000 69370.000 10.318000 9.6120000 9.2665480 67031.717 9.9199470 69370.000 67031.717 4.8631105e 08 71575.421 10.318000 9.9199470 71575.421 10.651854 -30.407072 489.93203 -0.034015993 -198.24254 0.00072941000 -0.034015993 2.558142e-06 0.013782628 -167.53347 -198.24254 0.013782628 254.38467 Inv (X’X) 197.12839 -30.407072 0.00072941000 -167.53347 Beta inv(X’X)*X’y -131.78025 -90.513381 0.045503884 13

ANOVA Analisi della varianza Se vogliamo testare simultaneamente ipotesi su tutti i parametri o coefficienti dei regressori andiamo a considerare la statistica F di Fisher-Snedecor. Considerando il modello in forma di scarti ˆ 1 . 1 ˆ X X X y . ˆ k ˆ X y R y y 2 yi N 0, 2 ̂i N i , 2 X X 1 ii 14

Si può dimostrare che ˆ X y 2 2k 1 e ricordando che p2 p q2 q Fp,q ˆ X y k 1 2 e e n k 2 F k 1,n k H 0 : 0 ˆ X y k 1 R 2 k 1 Sotto 1 R 2 n k e e n k Fk 1,n k 15

TABELLA ANOVA Causa var. Devianza G.L. Stime var. Modello x2 .xk ˆ X y y yR 2 k-1 ˆ X y k 1 Residuo e e y y 1 R 2 n-k e e n k Totale H0 : y y yi2 n-1 2 . k 0 Si costruisce la statistica F Si individua il 95% o il 99% quantile della distribuzione F(k-1),(n-k) Se F F 1 ; k 1 n k si rifiuta H0 16

COEFFICIENTE DI CORRELAZIONE MULTIPLA 2 e TSS RSS i 1 R2 1 2 TSS Y i 0 R 2 1 Il coefficiente di correlazione è un indicatore del legame lineare tra Y e i regressori. Ha però un difetto: Esso può aumentare anche se viene aggiunto un regressore che non “spiega” y. RSS 2 R 1 1 TSS 2 e i 2 Y i Se dividiamo le devianze per i gradi di libertà andiamo a pesare il contributo a R2 di ogni regressore Rˆ 2 1 2 e i n k 2 Y i n 1 n 1 2 ˆ R 1 1 R2 n k 17

APPLICAZIONE Y X u 1 2 3 n 12 k 3 yi 1 2 x2i 3 x3i ui Facendo riferimento ai valori Y 9 2 x 2 10 X 2 2 2 x 3 15 X 3 1 2 y 200 x y 12 x y 9 x x 2 3 2 3 Determinare il vettore di stime OLS 11 18

Se consideriamo il modello in forma di scarti dalle medie ˆ 2 X X 1 X y ˆ 3 Dove x21 x 22 X . . x2 n x31 x32 . . x3n x2 i X 2 i X 2 x3i X 3i X 3 ˆ 1 Y ˆ 2 X 2 ˆ 3 X 3 X 22i X X X 2i X 3i X X 1 1 X X 1 X X X 2i 3i 2 3i 1 2 X 32i 1 3 X X 2 i 3i 2 2 2 X 2i X 3i X 2i X 3i 1 3 X 2i X 3i 1 4 X 22i 2 X 3i X 2i X 3i X X X 2 i 3i 2 2i 19

X 2iYi X y X 3iYi da cui ˆ 2 1 ˆ 2 2 3 X2 X3 X 2 X3 X 32 X 2Y 2 X X 3Y 2 2 X X X 3 X 3Y 2 X 3 X 2Y 2 15 12 11 9 180 99 ˆ 2 9.62 10 15 121 29 10 9 11 12 90 132 ˆ 3 7.65 10 15 121 29 ˆ 1 Y ˆ 2 X 2 ˆ 3 X 3 9 2 9.62 7.65 17.89 ˆ 1 17.89 ˆ ˆ 2 9.62 ˆ 7 . 65 3 20

RICAPITOLANDO 1 ˆ X X X y ˆ ˆ ˆ V E X X E ˆ ˆ 2 1 2 2 e i n k E ˆ 2 2 Fino ad ora nessuna ipotesi è stata posta per la distribuzione degli errori nel problema della stima. Aggiungiamo : ui N 0 , 2 u N 0 , 2 I 21

TEST PER LA VERIFICA DI IPOTESI Dal teorema di GAUSS-MARKOV : ˆ N , 2 X X 1 H 0 : i 0 Vogliamo testare Ovvero vogliamo verificare se il regressore Xi spiega effettivamente la variabile dipendente Y nel caso (improbabile) che sia nota 2 ˆ i i N 0 ,1 1 2 X X ii H 0 : i 0 Sotto statistica ˆ i 2 andiamo a considerare la 1 X X ii 22

Se il valore cade all’esterno dell’intervallo di confidenza al 95% della N (0,1) ( 1.96) rifiutiamo H0 ed il parametro i sarà “significativamente” diverso da zero. In generale rifiuto H0 al livello 100 % di significatività quando ˆ i i 2 X X q n 2 1 ii 23

QUANDO 2 NON E’ NOTA Utilizziamo la sua stima ̂ 2 e e ˆ n k 2 Abbiamo già visto che e M X u e e u M X M X u u M X u MX e idempotente con tr(MX) n-k da cui rank (MX) (n-k) Per il teorema spettrale esiste una matrice ortogonale P : P’P In P M X P n k n n n n n n n n 24

dove n k I n k 0 0(n-k) 0 k (n-k) k E’ una matrice diagonale con (n-k) sulla diagonale principale Esempio 1 0 0 0 0 0 1 0 0 0 n 6 0 0 1 0 0 k 2 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 unità e k zeri 0 0 0 0 0 0 Sulla base di P u può essere trasformato u P n 1 v , n n n 1 v P 1 u P u e e u M X u v P M X P v v n k v v12 v22 . vn2 k 25

u N 0, 2 I con P ortogonale v P u v N 0, 2 I e e v12 v22 vn2 k 2 2 . 2 2 2 n k n k vi 2 N 0,1 2n k i 1 i 1 2 ̂ ̂ Inoltre dimostriamo che e sono indipendenti: Si dimostra verificando che e è incorrelato da ̂ ˆ E e 1 e I X X X X u 1 ˆ X X X u 26

ˆ E e 1 E I X X X X u u X X X X X X 1 2 I X X X X X X X 2 1 1 1 1 1 X X X X X X X 0 e e ̂ sono Normali e incorrelate quindi e e 2 indipendenti ; lo saranno anche ̂ e ˆ n k N 0,1 N.B. 2 n k n k t n k ˆ i i Quindi 1 X X ii e e n k 2 2 tn k 27

ˆ i i ˆ aii 1 aii X X ii tn k (*) elemento generico di posto ii nella diagonale della (X’X) Le ipotesi su i possono essere verificate sostituendo i valori nella (*) e controllando poi che la statistica superi o meno i valori della regione critica della distribuzione tn-k . 28

RIPRENDIAMO L’ESERCIZIO (Applicazione lucidi precedenti 18-20) H 0 : 2 3 0 ( F0.01 , 2 , 9 8.02) R 2 k 1 ESS k 1 F 2 1 R n k RSS n k ˆ X y R y y 2 ˆ 2 Ricordiamo: n 12 k 3 con intercetta y1 2 var. esplicative in forma di scarti ˆ x21 . . x2 n . 3 x 31 . . x3n . y n ˆ ˆ X 2 y ˆ ˆ X y 2 3 2 2 3 X3 y X y 3 9.62 12 7.65 9 184.29 R2 0.92 200 200 0.92 2 9 F 11.5 51.75 1 0.92 9 2 valore empirico di F Si rifiuta H0 con un livello di significatività del 99% F empirico 51.75 F 8.02 29

Se avessimo voluto testare H 0 : 2 0 Ovvero la significatività di X2 t a22 ˆ 2 2 2 ˆ a22 tn k o F 1, n k (t99.9 2.82) 2 X 3 2 2 X X 2 3 X 2 X 3 2 15 15 0.51 150 121 29 e e TSS ESS 200 184.29 ˆ 1.74 n k 9 9 ˆ 2 9.62 9.62 t 10.2 1.74 0.51 0.94 ˆ 2 a22 valore 2 Anche adesso rifiutiamo H0 è significativo empirico di t il regressore X2 30

PROBLEMI DI PREVISIONE Si vuole prevedere il valore di Yn 1 per un insieme di valori X osservati. Supponiamo però per X i valori C 1 X 2,n 1 X 3,n 1 . X k ,n 1 E’ possibile fare una previsione puntuale o stimare un intervallo di previsioni. Yn 1 1 2 X 2,n 1 . k X k ,n 1 un 1 C un 1 1 k k 1 1 1 E Yn 1 C Utilizzando le proprietà BLUE di ̂ avremo il PREVISORE PUNTUALE Yˆn 1 C ˆ sarà BLUFF Best Linear Unbiased Forecasting Function 31

Per ottenere un intervallo di previsione è necessario individuare la distribuzione di ˆ ˆ ˆ Var C E C C C C E C ˆ C ˆ 1 ˆ E C C C X X 2C 1 C ˆ N C , 2C X X C C ˆ C 1 C X X C e e n k 2 tn k Quindi una stima intervallare con un livello fiduciario del 100(1- )% : 1 C ˆ t 2 C X X C C ˆ t 2 C C ˆ t 2 32

APPLICAZIONE Y 1 2 X u Voglio prevedere Y da X0. Per calcolare l’intervallo devo determinare n X X X C 1 X X 2 X 0 2 1 C X X C 2 X 2 X X u X 0 0 2 u X Infatti 1 1 X 0 2 n X 2 X 1 2 n X X 2 X 2 . X2 X X X n X n 1 X 0 1 X X 0 X , X 0n X X 0 2 X 0 X X 02n X 0 X 2 2 X 2 33

2 2 X 2 X X nX 0 0 2 n X X 2 1 X X 0 2 n X 2 Lo standard error di Y0 sarà 1 s.e.(Yˆ0 ) s 1 n ( X 0 X )2 2 ( X X ) i A parità di dati osservati l’intervallo sarà tanto più largo quanto più X0 è distante da X 34

CENNI SULLE VARIABILI DUMMY (Variabili di comodo) Fino ad ora abbiamo assunto che nella equazione generale Y X u Le variabili X siano variabili cardinali date dalla teoria economica. E’ possibile introdurre variabili cosiddette “di comodo” che riescano a rappresentare diversi fattori : – EFFETTI TEMPORALI – EFFETTI SPAZIALI – VARIABILI QUALITATIVE 35

È possibile che un modello economico possa subire mutamenti strutturali : FUNZIONE DI CONSUMO C 1 Y u Tempo di guerra C 2 Y u Tempo di pace Si ipotizza comunque che la propensione marginale al consumo C Y rimanga invariata in entrambi i periodi 36

Invece di considerare i due modelli separatamente (stime meno precise) vengono uniti in una sola relazione C 1 X 1 2 X 2 Y u Dove X1 e X2 sono variabili dummy : 1 anni di guerra X 1 anni di pace 0 0 anni di guerra X 2 anni di pace 1 1 2 La matrice dei coefficienti sarà e la matrice dei dati 0 1 Y1 0 1 Y2 . . Y 3 0 1 . 1 0 . X X 1 X 2 Y 1 0 . . . . 1 0 . 0 1 . . . . 37 0 1 Yn

La trappola delle variabili di comodo Quando utilizziamo le variabili dummy è necessariob fare attenzione a come viene costruito il modello, per non rendere la matrice (X’X) singolare . Infatti se nel modello precedente lasciavamo una intercetta : C 0 1 X 1 2 X 2 Y u 1 1 . 1 1 X 1 . 1 1 . 1 0 0 . 0 1 1 . 1 0 . 0 1 Y1 1 Y2 . . 1 . 0 . 0 . . . 0 . 1 . . . 1 Yn 1 X 0 1 X 1 1 X 2 0 Y 0 X linearmente X rank 3 k Abbiamo cherank le 4 colonne di XXsono 38 dipendenti

Volendo utilizzare una regressione con intercetta si utilizzerà così solo una dummy : C 1 2 X 2 Y u 0 X 2 1 anni di guerra anni di pace PMC in entrambi i periodi 1 1 intercetta anni di guerra 2 1 2 intercetta anni di pace 1 – 2 2 differenza tra l’intercetta del periodo guerra e pace Cambiamento di coefficiente angolare C 1Y 2 1 X 2Y u 0 X 2 1 anni di guerra anni di pace C 1Y u C 2Y u 39 2 – 1 differenza propensione marginale al

APPLICAZIONE (p.255 Maddala) Y 1 2 SVA u Y km / litro SVA Stima Vita Auto in anni Yˆ 7.952 0.693 SVA 1.753 0.061 R 2 0.74 Y 1 2W 3 S A 4 G D 5 SVA u W peso in Kg 0 cambio sta ndard S A 1 cambio automatico 0 gas G D 1 diesel Yˆ 22.008 0.002W 2.760 S 5.349 0.001 0.708 A 3.28 G 1.413 D 0.415 SVA 0.097 R 2 0.82 40

MULTICOLLINEARITA’ Quando tra due o più variabili esplicative vi è perfetta collinearità o multicollinearità, la matrice (X’X) non è più a rango pieno e le stime OLS non possono essere calcolate. Si può però facilmente fare una sostituzione di variabile Es : Y 1 X 1 2 X 2 u X 2 X 1 Y 1 X 1 2 2 X 1 u 1 2 X 1 u 1 2 2 1 2 41

Il problema della multicollinearità esiste quindi quando due o più regressori sono quasi-collineari ovvero quando il coefficiente di correlazione tra i regressori è alto . MODELLO A 3 VARIABILI Y 1 2 X 2 3 X 3 u Y 2 X 2 3 X 3 u u ˆ 2 1 ˆ X X X y ˆ 3 1 V ˆ 2 X X 2 2 2 X X 2 3 X 2 X 3 2 2 3 X X X 2 3 X X X 2 2 2 42 3

V ˆ 2 2 X 32 2 X X X X X X X X X X X X 2 2 2 3 2 2 2 2 2 3 3 2 3 2 2 2 3 2 2 2X3 2 2 3 2 2 2 X 1 r 2 23 2 V ˆ 3 2 2 X 1 r 3 23 È facile vedere che valori molto alti di r232 rendono le stime OLS molto imprecise. Inoltre piccole variazioni nella matrice dei dati provocano o possono provocare grandi variazioni nella stima dei parametri. 43

ESEMPIO-APPLICAZIONE: instabilità delle stime Y 2 X 2 3 X 3 u u Dati : 2 X 2i 200 X X X 2 X 3i 113 ˆ 2 2 X 3 X 2Y 2 2 X X 2i X 3i 150 Y 350 2i i Y 263 3i i X X X Y X X 2 3 3 2 2 3 2 3 113 350 150 263 39550 39450 100 1 2 200 113 150 22600 22500 100 ˆ 52600 52500 100 1 3 22600 22500 100 2 2 X2X3 r X X X X 2 2 2 3 2 3 1502 0.995 200 113 44

Togliendo solo una osservazione: 2 X 2 199 2 X 3 112 X X 149 X Y 327.5 X Y 261.5 2 3 2 3 ˆ 112 347.5 149 261.5 43.5 1 2 199 112 1492 87 2 ˆ 199 261.5 149 347.5 261 3 199 112 1492 87 3 Si modificano molto le stime 45

ETEROSCHEDASTICITA’ Avevamo ipotizzato che E uu' 2 I tale assunzione è in molte situazioni non valida dobbiamo quindi riformulare il problema nella forma E u 0 E uu' 2 46

1 ˆ X X X y y X u 1 E ˆ X X X E u Sono ancora corretti ma non efficienti (ovvero non sono necessariamente a varianza minima) 1 1 V ˆ X X X E uu ' X X X 1 1 X X X X X X 2 47

GOLDFELD – QUANDT TEST - Si ordinano le osservazioni secondo la variabile Xj che si ipotizza sia la causa dell’eteroschedasticità - Si divide il campione in tre parti di numerosità n1 n2 n3 . - Dopo la stima OLS nei tre sottocampioni si calcola e1 e1 e e3 e3 F e1 e1 e3 e3 Fn1 k , n3 k Sotto H0 : omoschedasticità : (il valore di F è piccolo) F F Rifiuto H empirico teorico 0 48

RIMEDI 1. i 1, ,n i siano valori noti. si applicano i MINIMI QUADRATI PESATI (WLS) ovvero si applica OLS al modello trasformato y y i i * i Ovvero Dove ; xij x i * ij ; *i i i yi* 1 xi*1 2 xi*2 . k xik* *i 2 1 Var *i Var i 2 Var i i2 1 i i i 2. relazione tra la componente stocastica e uno dei regressori yi 1 2 xi 2 . k xik i Es. Var i C xi22 49

Trasformiamo il modello yi y xi 2 * i * ij ; x xij xi 2 ; i xi 2 * i yi 1 xik i 1 2 . k xi 2 xi 2 xi 2 xi 2 Dove i 1 2 Var i C Var Var xi 2 xi 2 * i Applico OLS 50

ESERCIZIO La stima di un modello lineare sulla base dei valori del Reddito e del Consumo di 30 famiglie americane fornisce i seguenti valori : Cˆ 1480 0.788 y 3.29 R 2 0.97 29.37 La stima dello stesso modello sulle prime 12 e sulle ultime 12 osservazioni fornisce i seguenti valori: Cˆ 846.7 0.837 y R 2 0.91 0.74 9.91 RSS 1069000 Cˆ 2306.7 0.747 y 0.79 R 2 0.71 5.00 RSS 3344000 Verificare l’ipotesi di presenza di eteroschedasticità ed in caso affermativo indicare la procedura di correzione. 3344000 F 3.12 F10 ,10 1.83 1069000 C’è presenza di eteroschedasticità 51

AUTOCORRELAZIONE DEI RESIDUI Molto spesso la assunzione E uu' 2 I cade perché gli errori sono autocorrelati, effetto molto usuale nelle serie storiche. Per illustrare il problema consideriamo una semplice relazione a due variabili yt X t ut ut ut 1 t 1 E t 0 2 E t t s 0 s 0 s 0 ut ut 1 t ut 2 t 1 t 52

t t 1 2 t 2 . r t r r:0 E ut r E t r 0 r:0 E ut2 E t2 2 E t2 1 4 E t2 2 . 0 0 2 2 E t t 1 2 E t t 2 . 0 2 E t 1 t 2 . 2 1 2 4 . 2 2 u 1 2 53

E ut ut 1 E t t 1 2 t 2 . t 1 t 2 . 2 3 2 5 2 . 2 1 2 4 . 2 2 u 1 2 t t 1 2 t 2 3 t 3 E ut ut 2 E 2 . t 2 t 3 t 4 2 2 4 2 6 2 . 2 2 2 u 2 1 2 E ut ut s s u2 1 2 1 E u u V u2 2 . . . . n 1 n 2 . . n 1 . n 2 . . . 1 54

CONSEGUENZE 1. 2. 3. 4. Stime OLS di corrette Varianze di ̂ molto grandi ovvero Sottostima di tali varianze inefficienti Conseguente non validità dei test t ed F Infatti si può dimostrare che 1 2 2 E e e u u 2 1 Solo se 2 e0 e 2 2 ˆ E E u n 1 Con N 20 .3 :2 e e; 180.5 E u n 1 19 sottostima 4% Con N 20 15.4 e ;e 0.8 2 E u 19 n 1 55 sottostima 19%

TEST DI DURBIN - WATSON n et d t 2 n et 1 2 eˆ y X ˆ 2 t e residui nella stima OLS t 1 n n 2 n 2 et et 1 2 et et 1 t 2 t 2 d t 2 n 2 e t per n grande t 1 ee d 2 2 e t 0 dL autocorr.( ) ? t 1 2 t 2 1 e e e dH 2 t t 1 2 t 2 1 r 0 d 4 4-dH No autocorr. 4-dL ? 4 Autocorr.(-) Il limite tra la zona di accettazione e quella di rifiuto è funzione della matrice X . D – W hanno costruito delle bande valide 56 sempre.

METODI RISOLUTIVI 1. GLS : se ho una stima di 1 ˆ ˆ 1 et et 1 ˆ 2 et . . . . . ˆ n 1 . . . . . 1 1 T : T T Riesco a trovare la matrice e trasformo il modello in Ty TX Tu Var Tu 2 I stima OLS 2. Procedura iterativa per stimare , u t u t 1 t Avendo: y t X t u t y t 1 X t 1 u t 1 E y t y t 1 1 X t X t 1 u t u t 1 (1) y t X t y t 1 X t 1 t t (2) ˆ 1 ˆ X X X y Procedura: - Da (1) stimo e con OLS ̂ ˆ ̂ (partendo da un valore iniziale per ) 57

Related Articles

Back to top button