Dalam pertanyaan saya yang lain , seorang penjawab menggunakan derivasi koefisien OLS berikut:
Kami memiliki model: mana Z tidak teramati. Lalu kita punya: plim
manaX ∗ 1 =M2X1danM2=[I-X2(X ′ 2 X2)-1X ′ 2 ].
Ini terlihat berbeda dari yang pernah saya lihat di Econometrics. Apakah ada eksposisi yang lebih eksplisit dari derivasi ini? Apakah ada nama untuk M 2 matriks?
econometrics
regression
Heisenberg
sumber
sumber
Jawaban:
The matriks adalah "anihilator-" atau "pembuat residual" matriks terkait dengan matriks X . Ini disebut "annihilator" karena M X = 0 (untuk matriks X sendiri tentu saja). Apakah disebut "pembuat residual" karena M y = e , dalam regresi y = X β + e .M=I−X(X′X)−1X′ X MX=0 X My=e^ y=Xβ+e
Ini adalah matriks simetris dan idempoten. Ini digunakan dalam bukti teorema Gauss-Markov.
Juga, ini digunakan dalam teorema Frisch-Waugh-Lovell , dari mana seseorang dapat memperoleh hasil untuk "regresi dipartisi", yang mengatakan bahwa dalam model (dalam bentuk matriks)
kita punya itu
Sejak adalah idempoten kita dapat menulis ulang di atas denganM2
dan karena juga simetris yang kita milikiM2
Tapi ini adalah estimator kuadrat-terkecil dari model
dan juga adalah residu dari kemunduran y pada matriks X 2 saja.M2y y X2
Dengan kata lain: 1) Jika kita regresi pada matriks X 2 saja, dan kemudian mundur pada residual dari estimasi ini pada matriks M 2 X 1 saja, β 1 perkiraan kita akan mendapatkan akan matematis sama dengan perkiraan kami akan diperoleh jika kita mundur y pada X 1 dan X 2 bersamaan pada saat yang sama, sebagai regresi berganda biasa.y X2 M2X1 β^1 y X1 X2
Sekarang, anggap bukan matriks tetapi hanya satu regresi, katakan x 1 . Maka M 2 x 1 adalah residu dari kemunduran variabel X 1 pada matriks regresi X 2 . Dan ini memberikan intuisi di sini: β 1 memberi kita efek yang "bagian dari X 1 yang terjelaskan oleh X 2 " telah di "bagian dari Y yang tersisa dijelaskan oleh X 2 ".X1 x1 M2x1 X1 X2 β^1 X1 X2 Y X2
Ini adalah bagian simbol dari Aljabar Least-Squares klasik.
sumber