Apa tradeoff varians bias ini untuk koefisien regresi dan bagaimana cara mendapatkannya?

9

Dalam tulisan ini , ( Bayesian Inference untuk Variance Components Using Only Error Contrasts , Harville, 1974), penulis mengklaim untuk menjadi "terkenal hubungan ", untuk regresi linier mana y = X β

(yXβ)H1(yXβ)=(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
ϵ N ( 0 , H ) .
y=Xβ+ϵ,
ϵN(0,H).

Bagaimana ini terkenal? Apa cara paling sederhana untuk membuktikan ini?

Sibbs Gambling
sumber
1
Itu ada di wikipedia , lihat 'derivasi' di sana.
user603
@ user603 Apakah Anda keberatan membuat tautannya lebih jelas? Terima kasih!
Sibbs Gambling
@ user603 Maaf, saya benar-benar tidak dapat melihat bagaimana tautan menyelesaikan masalah. Bagi saya, dalam kasus saya, persamaannya adalah Var (y) = bias + ... Bisakah Anda menguraikan?
Sibbs Gambling
4
@SibbsGambling Perhatikan bahwa persamaan Anda memiliki dua istilah terkait varians dalam formulasi regresi linier tertimbang ini . Istilah di sebelah kiri terkait dengan varian di sekitar model yang sebenarnya (dibobot oleh matriks presisi ). Istilah pertama di sebelah kanan terkait dengan varian di sekitar model yang dipasang. Istilah kedua di sebelah kanan terkait dengan kuadrat bias. Itu tradeoff varians-bias. H1
EdM

Jawaban:

6

Istilah terakhir dalam persamaan dapat ditulis sebagai

(XβXβ^)H1(XβXβ^).

Dalam bentuk ini persamaannya mengatakan sesuatu yang menarik. Dengan asumsi adalah pasti dan simetris positif, demikian juga kebalikannya. Oleh karena itu, kita dapat mendefinisikan produk dalam < x , y > H - 1 = x H - 1 y , memberi kita geometri. Kemudian kesetaraan di atas pada dasarnya mengatakan bahwa, ( X β - X β ) ( y - X β ) .H<x,y>H1=xH1y

(XβXβ^)(yXβ^).

Saya ingin memberi Anda sedikit intuisi karena seorang komentator telah meninggalkan tautan ke derivasi.

Sunting: Untuk Cucu

LHS:

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ=(A)(B)+(C)

RHS:

(yXβ^)H1(yXβ^)+(ββ^)(XH1X)(ββ^)
=yH1y2yH1Xβ^+β^XH1Xβ^+βXH1Xβ2β^XH1Xβ+β^XH1Xβ^=(A)(D)+(E)+(C)(F)+(E)

Hubungan:

β^=(XH1X)1XH1y

Dengan menghubungkan dalam relasi Anda dapat menunjukkan bahwa (B) = (F), dan bahwa 2 (E) = (D). Semua selesai.

jlimahaverford
sumber
Maaf saya tidak bisa melihat bagaimana tautannya menyelesaikan masalah. Bagi saya, dalam kasus saya, persamaannya adalah Var (y) = bias + ... Bisakah Anda menguraikan?
Sibbs Gambling
@SibbsGambling mengedit jawaban saya termasuk derivasi.
jlimahaverford
yβ^
7

Mereka sampai pada identitas ini dengan teknik yang disebut melengkapi alun-alun. Sisi kiri dalam bentuk kuadrat, jadi mulailah dengan mengalikannya

(yXβ)H1(yXβ)=yH1y2yH1Xβ+βXH1Xβ

β^=(XH1X)1XH1y

bill_e
sumber
2

Jika Anda tahu aljabar matriks Anda, maka ini bisa dilakukan dengan mengalikan semuanya dan memverifikasi bahwa Anda memang memiliki hal yang sama di kedua sisi. Inilah yang ditunjukkan oleh jlimahaverford.

β^

XN(μ,Σ).
ΣΣ=PPT
Y=P-1(X-μ)
N(0,saya)β^H=PPT
y=Xβ+ϵP-1y=P-1Xβ+P-1ϵ
ϵcov(P-1ϵ)=saya
X~=P-1X,y~=P-1ydanϵ~=P-1ϵ.
y~=X~β+ϵ~
β^
β^=(X~TX~)-1X~Ty~=((P-1X)TP-1X)-1(P-1X)TP-1y=(XT(PPT)-1X)-1X(PPT)-1y=(XTH-1X)-1XH-1y
Gumeo
sumber