Utilitas teorema Frisch-Waugh

15

Saya seharusnya mengajar teorema Frish Waugh di bidang ekonometrika, yang belum saya pelajari.

Saya telah memahami matematika di baliknya dan saya harap idenya juga "koefisien yang Anda dapatkan untuk koefisien tertentu dari model linier berganda sama dengan koefisien model regresi sederhana jika Anda" menghilangkan "pengaruh regressor lain". Jadi ide teoretis itu agak keren. (Jika saya salah paham, saya menerima koreksi)

Tetapi apakah ia memiliki beberapa penggunaan klasik / praktis?

EDIT : Saya telah menerima jawaban, tetapi saya masih ingin memiliki jawaban baru yang membawa contoh / aplikasi lain.

Anthony Martin
sumber
4
Yang jelas akan ditambahkan plot variabel ?
Silverfish
1
Pengantar Dougherty untuk Ekonometrika menyebutkan contoh lain menggunakan teorema Frisch-Waugh-Lovell. Pada hari-hari awal analisis ekonometrik dari deret waktu, itu cukup umum dalam model di mana variabel memiliki tren waktu deterministik untuk menurunkan mereka semua sebelum mundur. Tetapi dengan FWL, Anda mendapatkan koefisien yang sama hanya dengan memasukkan tren waktu sebagai regressor, dan terlebih lagi ini memberikan kesalahan standar "benar", karena ia mengakui bahwa 1 df telah dikonsumsi.
Silverfish
1
Dougherty memang memperingatkan terhadap prosedur, jadi dalam hal itu itu bukan contoh yang bagus, meskipun itu adalah pelajaran. Variabel-variabel ekonomi sering kelihatannya sebagai perbedaan-stasioner daripada stasioner-tren, sehingga upaya detrending semacam ini tidak berhasil dan dapat menghasilkan regresi palsu.
Silverfish
1
@Silverfish: FWL adalah teknik aljabar murni, jadi masalah apakah mengekstraksi tren deterministik adalah "benar" mengingat DGP yang mendasarinya tidak diragukan lagi penting, tetapi imho tidak terkait dengan FWL, jadi dalam hal itu contoh Anda adalah yang benar-benar valid untuk Pertanyaan OPs tentang dua cara untuk mendapatkan estimasi poin.
Christoph Hanck
2
Saya telah mengeksploitasi hubungan ini di banyak posting, terutama untuk tujuan konseptual dan untuk memberikan contoh menarik dari fenomena regresi. Lihat, antara lain , stats.stackexchange.com/a/46508 , stats.stackexchange.com/a/113207 , dan stats.stackexchange.com/a/71257 .
whuber

Jawaban:

14

Pertimbangkan model data panel efek tetap, juga dikenal sebagai model Least Squares Dummy Variables (LSDV).

dapat dihitung dengan langsung menerapkan OLS ke model y = X β + D α + ϵ , di mana D adalahmatriks N T × N dari boneka dan α mewakili efek tetap spesifik-individu.bLSDV

y=Xβ+Dα+ϵ,
DNT×Nα

Cara lain untuk menghitung adalah dengan menerapkan apa yang disebut dalam transformasi ke model biasa untuk mendapatkan versi yang direndahkan, yaitu M [ D ] y = M [ D ] X β + M [ D ] ϵ . Di sini, M [ D ] = I - D ( D D ) - 1 D , matriks pembuat residu dari regresi padabLSDV

M.[D]y=M.[D]Xβ+M.[D]ϵ.
M.[D]=saya-D(DD)-1D .D

Dengan teorema Frisch-Waugh-Lovell, keduanya setara, sebagai FWL mengatakan bahwa Anda dapat menghitung subset dari koefisien regresi dari regresi (di ) denganβ^

  1. regresi pada regresi lain (di sini, D ), menyimpan residu (di sini, y waktu-direndahkan atau M [ D ] y , karena regresi pada konstanta hanya merendahkan variabel), kemudianyDyM.[D]y
  2. mundur pada D dan menyimpan residu M [ D ] X , danXDM.[D]X
  3. kemunduran residual ke satu sama lain, pada M [ D ] X .M.[D]yM.[D]X

Versi kedua jauh lebih banyak digunakan, karena set data panel tipikal mungkin memiliki ribuan unit panel , sehingga pendekatan pertama akan mengharuskan Anda untuk menjalankan regresi dengan ribuan regressor, yang bukan ide yang baik secara numerik bahkan saat ini dengan cepat komputer, seperti menghitung kebalikan dari ( D : X ) ( D : X ) akan sangat mahal, sedangkan y dan X yang merendahkan waktu adalah sedikit biaya.N(D:X)(D:X)yX

Christoph Hanck
sumber
Terima kasih banyak, ini adalah jenis jawaban yang saya cari, meskipun agak maju bagi saya untuk benar-benar menggunakannya. Jadi jawaban Anda baik-baik saja dengan saya, tetapi saya akan senang jika saya memiliki yang lain, apakah saya harus menerima jawaban Anda?
Anthony Martin
Jika itu membantu, akan lebih tepat untuk melakukannya. Tetapi menerima akan mengurangi peluang Anda untuk mendapatkan jawaban yang lebih baik, jadi Anda dapat mempertimbangkan untuk menunggu sebelum menerima jawaban ini. Hadiah akan semakin meningkatkan peluang Anda untuk mendapatkan lebih banyak jawaban - mengingat bahwa tidak ada cukup banyak pengguna di CV yang secara teratur menjawab pertanyaan dengan jumlah pertanyaan, bahkan satu jawaban dapat mengarahkan pengguna aktif lainnya untuk menyimpulkan bahwa pertanyaan telah ditangani. (Saya memposting jawaban yang agak sederhana di bawah ini.)
Christoph Hanck
7

Ini adalah versi sederhana dari jawaban pertama saya, yang menurut saya kurang relevan secara praktis, tetapi mungkin lebih mudah untuk "dijual" untuk penggunaan di ruang kelas.

Regresi dan y i - ˉ y = K Σ j = 2 β j ( x i j - ˉ x j ) +

ysaya=β1+j=2Kβjxsayaj+ϵsaya
menghasilkan identik β j,j=2,...,
ysaya-y¯=j=2Kβj(xsayaj-x¯j)+ϵ~saya
β^j . Ini dapat dilihat sebagai berikut: ambil x 1 = 1 : = ( 1 , , 1 ) dan karenanya M 1 = I - 1 ( 11 ) - 1 1 = I - 1 1j=2,...,Kx1=1: =(1,...,1) sehingga M1xj=xj-1n-11xj=xj-1 ˉ x j=:xj- ˉ x j. Oleh karena itu, residu dari regresi variabel pada konstanta,M1xj, hanyalah variabel yang direndahkan (logika yang sama tentu saja berlaku untukyi).
M1=I1(11)11=I11n,
M1xj=xj1n11xj=xj1x¯j=:xjx¯j.
M1xjyi
Christoph Hanck
sumber
4

Ini adalah satu lagi, lebih tidak langsung, tetapi saya percaya satu yang menarik, yaitu hubungan antara pendekatan yang berbeda untuk menghitung koefisien autokorelasi parsial dari suatu seri waktu stasioner.

Definisi 1

Y^tμ=α1(m)(Yt1μ)+α2(m)(Yt2μ)++αm(m)(Ytmμ)
mαm(m)

mYtYt1,,Ytm+1ρmYtYtm

αj(m)ZtXt

E[Xt(ZtXtα(m))]=0
α(m)
α(m)=[E(XtXt)]1E[XtZt]
Applying this formula to Zt=Ytμ and
Xt=[(Yt1μ),(Yt2μ),,(Ytmμ)]
we have
E(XtXt)=(γ0γ1γm1γ1γ0γm2γm1γm2γ0)
Also,
E(XtZt)=(γ1γm)
Hence,
α(m)=(γ0γ1γm1γ1γ0γm2γm1γm2γ0)1(γ1γm)
The mth partial correlation then is the last element of the vector α(m).

So, we sort of run a multiple regression and find one coefficient of interest while controlling for the others.

Definition 2

The mth partial correlation is the correlation of the prediction error of Yt+m predicted with Yt1,,Ytm+1 with the prediction error of Yt predicted with Yt1,,Ytm+1.

So, we sort of first control for the intermediate lags and then compute the correlation of the residuals.

Christoph Hanck
sumber