Cara alternatif untuk mendapatkan koefisien OLS

8

Dalam pertanyaan saya yang lain , seorang penjawab menggunakan derivasi koefisien OLS berikut:

Kami memiliki model: mana Z tidak teramati. Lalu kita punya: plim

Y=X1β+X2β2+Zγ+ε,
ZmanaX1 =M2X1danM2=[I-X2(X2 X2)-1X2 ].
Plimβ^1=β1+γCHaiv(X1,Z)VSebuahr(X1)=β1,
X1=M.2X1M.2=[saya-X2(X2X2)-1X2]

Ini terlihat berbeda dari yang pernah saya lihat di Econometrics. Apakah ada eksposisi yang lebih eksplisit dari derivasi ini? Apakah ada nama untuk M 2 matriks?β=(XX)-1XYM.2

Heisenberg
sumber
Saya cukup yakin itu dijelaskan dalam catatan kuliah Hansen, tetapi saya tidak memilikinya di tangan saya sekarang.
FooBar

Jawaban:

8

The matriks adalah "anihilator-" atau "pembuat residual" matriks terkait dengan matriks X . Ini disebut "annihilator" karena M X = 0 (untuk matriks X sendiri tentu saja). Apakah disebut "pembuat residual" karena M y = e , dalam regresi y = X β + e . M=IX(XX)1XXMX=0XMy=e^y=Xβ+e

Ini adalah matriks simetris dan idempoten. Ini digunakan dalam bukti teorema Gauss-Markov.

Juga, ini digunakan dalam teorema Frisch-Waugh-Lovell , dari mana seseorang dapat memperoleh hasil untuk "regresi dipartisi", yang mengatakan bahwa dalam model (dalam bentuk matriks)

y=X1β1+X2β2+u

kita punya itu

β^1=(X1M2X1)1(X1M2)y

Sejak adalah idempoten kita dapat menulis ulang di atas denganM2

β^1=(X1M2M2X1)1(X1M2M2)y

dan karena juga simetris yang kita milikiM2

β^1=([M2X1][M2X1])1([M2X1][M2y]

Tapi ini adalah estimator kuadrat-terkecil dari model

[M2y]=[M2X1]β1+M2u

dan juga adalah residu dari kemunduran y pada matriks X 2 saja. M2yyX2

Dengan kata lain: 1) Jika kita regresi pada matriks X 2 saja, dan kemudian mundur pada residual dari estimasi ini pada matriks M 2 X 1 saja, β 1 perkiraan kita akan mendapatkan akan matematis sama dengan perkiraan kami akan diperoleh jika kita mundur y pada X 1 dan X 2 bersamaan pada saat yang sama, sebagai regresi berganda biasa. yX2M2X1β^1yX1X2

Sekarang, anggap bukan matriks tetapi hanya satu regresi, katakan x 1 . Maka M 2 x 1 adalah residu dari kemunduran variabel X 1 pada matriks regresi X 2 . Dan ini memberikan intuisi di sini: β 1 memberi kita efek yang "bagian dari X 1 yang terjelaskan oleh X 2 " telah di "bagian dari Y yang tersisa dijelaskan oleh X 2 ".X1x1M2x1X1X2β^1X1X2YX2

Ini adalah bagian simbol dari Aljabar Least-Squares klasik.

Alecos Papadopoulos
sumber
Mulai menjawab, tetapi saya memiliki banyak tumpang tindih dengan jawaban ini. Anda dapat menemukan banyak informasi ini di Bab 3.2.4 edisi ke-7 "Analisis Ekonometrik" oleh Bill Greene.
cc7768
@ cc7768 Ya, itu sumber yang bagus untuk aljabar kuadrat-terkecil. Tapi jangan ragu untuk mengirim materi tambahan. Misalnya, pada dasarnya jawaban saya hanya mencakup pertanyaan kedua OP.
Alecos Papadopoulos
@AlecosPapadopoulos Anda mengatakan bahwa jika kita mundur pada X 1 , kita juga mendapatkan β 1 . Tetapi bukankah persamaannya mengatakan, kemunduran M 2 y pada M 2 X 1 ? M.2yX1β^1M.2yM.2X1
Heisenberg
@ Heisenberg Benar. Salah ketik. Memperbaikinya, dan menambahkan sedikit lagi.
Alecos Papadopoulos