Saya seharusnya mengajar teorema Frish Waugh di bidang ekonometrika, yang belum saya pelajari.
Saya telah memahami matematika di baliknya dan saya harap idenya juga "koefisien yang Anda dapatkan untuk koefisien tertentu dari model linier berganda sama dengan koefisien model regresi sederhana jika Anda" menghilangkan "pengaruh regressor lain". Jadi ide teoretis itu agak keren. (Jika saya salah paham, saya menerima koreksi)
Tetapi apakah ia memiliki beberapa penggunaan klasik / praktis?
EDIT : Saya telah menerima jawaban, tetapi saya masih ingin memiliki jawaban baru yang membawa contoh / aplikasi lain.
regression
econometrics
least-squares
projection
decomposition
Anthony Martin
sumber
sumber
Jawaban:
Pertimbangkan model data panel efek tetap, juga dikenal sebagai model Least Squares Dummy Variables (LSDV).
dapat dihitung dengan langsung menerapkan OLS ke model y = X β + D α + ϵ , di mana D adalahmatriks N T × N dari boneka dan α mewakili efek tetap spesifik-individu.bL SD V
Cara lain untuk menghitung adalah dengan menerapkan apa yang disebut dalam transformasi ke model biasa untuk mendapatkan versi yang direndahkan, yaitu M [ D ] y = M [ D ] X β + M [ D ] ϵ . Di sini, M [ D ] = I - D ( D ′ D ) - 1 D ′ , matriks pembuat residu dari regresi padabL SD V
Dengan teorema Frisch-Waugh-Lovell, keduanya setara, sebagai FWL mengatakan bahwa Anda dapat menghitung subset dari koefisien regresi dari regresi (di ) denganβ^
Versi kedua jauh lebih banyak digunakan, karena set data panel tipikal mungkin memiliki ribuan unit panel , sehingga pendekatan pertama akan mengharuskan Anda untuk menjalankan regresi dengan ribuan regressor, yang bukan ide yang baik secara numerik bahkan saat ini dengan cepat komputer, seperti menghitung kebalikan dari ( D : X ) ′ ( D : X ) akan sangat mahal, sedangkan y dan X yang merendahkan waktu adalah sedikit biaya.N ( D : X)′( D : X) y X
sumber
Ini adalah versi sederhana dari jawaban pertama saya, yang menurut saya kurang relevan secara praktis, tetapi mungkin lebih mudah untuk "dijual" untuk penggunaan di ruang kelas.
Regresi dan y i - ˉ y = K Σ j = 2 β j ( x i j - ˉ x j ) +
sumber
Ini adalah satu lagi, lebih tidak langsung, tetapi saya percaya satu yang menarik, yaitu hubungan antara pendekatan yang berbeda untuk menghitung koefisien autokorelasi parsial dari suatu seri waktu stasioner.
Definisi 1
So, we sort of run a multiple regression and find one coefficient of interest while controlling for the others.
Definition 2
Them th partial correlation is the correlation of the prediction error of Yt+m predicted with Yt−1,…,Yt−m+1 with the prediction error of Yt predicted with Yt−1,…,Yt−m+1 .
So, we sort of first control for the intermediate lags and then compute the correlation of the residuals.
sumber