Apakah ada cara yang elegan / berwawasan untuk memahami identitas regresi linier ini untuk banyak ?

10

Dalam regresi linear saya menemukan hasil yang menyenangkan jika kita cocok dengan model

E[Y]=β1X1+β2X2+c,

kemudian, jika kita membuat standar dan memusatkan data , dan ,YX1X2

R2=Cor(Y,X1)β1+Cor(Y,X2)β2.

Bagi saya ini terasa seperti versi 2 variabel dari untuk regresi, yang menyenangkan.R2=Cor(Y,X)2y=mx+c

Tetapi satu-satunya bukti yang saya tahu adalah tidak konstruktif atau berwawasan luas (lihat di bawah), namun untuk melihatnya rasanya harus mudah dimengerti.

Contoh pemikiran:

  • The dan parameter memberi kita 'proporsi' dari dan di , dan jadi kami mengambil proporsi masing-masing korelasi mereka ...β1β2X1X2Y
  • The s korelasi parsial, adalah kuadrat korelasi berganda ... korelasi dikalikan dengan korelasi parsial ...βR2
  • Jika kita melakukan orthogonalize terlebih dahulu maka s akan menjadi ... apakah hasil ini masuk akal secara geometris?βCov/Var

Tak satu pun dari utas ini yang tampaknya mengarah ke mana pun untuk saya. Adakah yang bisa memberikan penjelasan yang jelas tentang bagaimana memahami hasil ini.


Bukti Tidak Memuaskan

R2=SSregSSTot=SSregN=(β1X1+β2X2)2=β12X12+β22X22+2β1β2X1X2

dan

Cor(Y,X1)β1+Cor(Y,X2)β2=YX1β1+YX2β2=β1X12+β2X1X2β1+β1X1X2+β2X22β2=β12X12+β22X22+2β1β2X1X2

QED.

Korone
sumber
Anda harus menggunakan variabel standar, karena jika rumus Anda untuk tidak dijamin berada di antara dan . Meskipun asumsi ini muncul sebagai bukti Anda, akan membantu jika Anda membuatnya eksplisit sejak awal. Saya bingung dengan apa yang sebenarnya Anda lakukan: jelas merupakan fungsi dari model itu sendiri - tidak ada hubungannya dengan data - namun Anda mulai mengatakan bahwa Anda telah "menyesuaikan" model dengan sesuatu . 0 1 R 2R201R2
whuber
Bukankah hasil teratas Anda hanya berlaku jika X1 & X2 benar-benar tidak berkorelasi?
gung - Reinstate Monica
@ung saya tidak berpikir begitu - bukti di bagian bawah sepertinya mengatakan itu berfungsi terlepas. Hasil ini mengejutkan saya juga, karenanya menginginkan "bukti pemahaman yang jelas"
Korone
@whuber Saya tidak yakin apa yang Anda maksud dengan "fungsi model sendirian"? Saya hanya bermaksud untuk OLS sederhana dengan dua variabel predicter. Yaitu ini adalah versi variabel 2 dariR 2 = C o r ( Y , X ) 2R2R2=Cor(Y,X)2
Korone
Saya tidak tahu apakah adalah parameter atau taksiran. βi
whuber

Jawaban:

9

Matriks topi idempoten.

(Ini adalah cara linear-aljabar yang menyatakan bahwa OLS adalah proyeksi ortogonal dari vektor respons ke ruang yang direntang oleh variabel.)


Ingat itu menurut definisi

R2=ESSTSS

dimana

ESS=(Y^)Y^

adalah jumlah kuadrat dari nilai yang diprediksi (terpusat) dan

TSS=YY

adalah jumlah kuadrat dari nilai respons (terpusat). Membakukan sebelumnya ke varian unit juga menyiratkanY

TSS=YY=n.

Ingat juga, bahwa koefisien estimasi diberikan oleh

β^=(XX)XY,

dari mana

Y^=Xβ^=X(XX)XY=HY

di mana adalah "topi matrix" mempengaruhi proyeksi ke kotak yang paling cocok . Itu simetris (yang terlihat jelas dari bentuknya) dan idempoten . Ini adalah bukti dari yang terakhir untuk mereka yang tidak terbiasa dengan hasil ini. Itu hanya mengacak-acak kurung di sekitar:Y YHYY^

HH=HH=(X(XX)X)(X(XX)X)=X(XX)(XX)(XX)X=X(XX)X=H.

Karena itu

R2=ESSTSS=1n(Y^)Y^=1nYHHY=1nYHY=(1nYX)β^.

Langkah penting di tengah menggunakan idempotence dari matriks topi. Sisi kanan adalah formula ajaib Anda karena adalah (baris) vektor koefisien korelasi antara dan kolom .YX1nYXYX

whuber
sumber
(+1) Penulisan yang sangat bagus. Tapi mengapa ^{-}bukannya di ^{-1}mana - mana?
amoeba
1
@amoeba Ini adalah kebalikan umum , taruh di sana untuk menangani case di mana mungkin singular. XX
whuber
4
@amoeba Penrose, dalam makalah aslinya ( A Generalized Inverse for Matrices , 1954) menggunakan notasi . Saya tidak suka itu atau notasi karena mereka terlalu mudah dikacaukan dengan konjugat, transpos, atau konjugat transpos, sedangkan notasi begitu sugestif dari invers sehingga pembaca biasa bisa lolos dengan memikirkan sebagai jika mereka suka. Anda hanya pembaca yang baik - tetapi terima kasih telah memperhatikan. A + A - A - 1AA+AA1
whuber
1
Motivasi yang menarik dan meyakinkan, tetapi bolehkah saya bertanya apakah notasi ini adalah sesuatu yang kadang-kadang digunakan di tempat lain atau apakah itu penemuan Anda sendiri?
amoeba
5
@amoeba: Ya, notasi ini muncul di tempat lain, termasuk dalam teks klasik oleh Graybill pada model linier.
kardinal
5

Tiga formula berikut ini terkenal, mereka ditemukan dalam banyak buku tentang regresi linier. Tidak sulit untuk menurunkannya.

β1=rYX1rYX2rX1X21rX1X22

β2=rYX2rYX1rX1X21rX1X22

R2=rYX12+rYX222rYX1rYX2rX1X21rX1X22

Jika Anda mengganti kedua beta ke dalam persamaan Anda , Anda akan mendapatkan rumus di atas untuk R-square.R2=rYX1β1+rYX2β2


Berikut ini adalah "wawasan" geometris. Di bawah ini adalah dua gambar yang menunjukkan regresi oleh dan . Representasi semacam ini dikenal sebagai variabel-sebagai-vektor dalam ruang subjek (harap baca tentang apa itu). Gambar-gambar diambil setelah ketiga variabel dipusatkan, dan jadi (1) setiap vektor panjang = st. penyimpangan dari masing-masing variabel, dan (2) sudut (cosinusnya) antara setiap dua vektor = korelasi antara masing-masing variabel.X 1 X 2YX1X2

masukkan deskripsi gambar di sini

YecosY Y =| Y | /| Y|Y^ adalah prediksi regresi (proyeksi ortogonal ke "pesawat X"); adalah istilah kesalahan; , koefisien korelasi berganda.YecosYY^=|Y^|/|Y|

Gambar kiri menggambarkan koordinat miring dari pada variabel dan . Kita tahu bahwa koordinat tersebut berhubungan dengan koefisien regresi. Yaitu, koordinatnya adalah: dan . X1X2b1| X1| =b1σX1b2| X2| =b2σX2Y^X1X2b1|X1|=b1σX1b2|X2|=b2σX2

Dan gambar kanan menunjukkan koordinat tegak lurus yang sesuai . Kita tahu bahwa koordinat tersebut berhubungan dengan koefisien korelasi orde nol (ini adalah kosinus dari proyeksi ortogonal). Jika adalah korelasi antara dan dan adalah korelasi antara dan maka koordinatnya adalah . Demikian juga untuk koordinat lainnya, . Y X 1 r * 1 Y X 1r1YX1r1Y^X1r1|Y|=r1σY=r1|Y^|=r1σY^r2|Y|=r2σY=r2|Y^|=r2σY^

Sejauh ini penjelasan umum tentang representasi vektor regresi linier. Sekarang kita beralih ke tugas untuk menunjukkan bagaimana hal itu dapat menyebabkan .R2=r1β1+r2β2

Pertama-tama, ingatlah bahwa dalam pertanyaan mereka @Corone mengemukakan kondisi bahwa ekspresi itu benar ketika ketiga variabel distandarisasi , yaitu, tidak hanya dipusatkan tetapi juga diskalakan ke varian 1. Lalu (yaitu menyiratkan untuk menjadi "bagian yang bekerja" dari vektor) kita memiliki koordinat yang sama dengan: ; ; ; ; dan juga. Gambar ulang, di bawah kondisi ini, hanya "pesawat X" dari gambar di atas:|X1|=|X2|=|Y|=1b1|X1|=β1b2|X2|=β2r1|Y|=r1r2|Y|=r2R=|Y^|/|Y|=|Y^|

masukkan deskripsi gambar di sini

Pada gambar, kita memiliki sepasang koordinat tegak lurus dan sepasang koordinat miring, dari vektor yang sama panjang . Ada aturan umum untuk mendapatkan koordinat tegak lurus dari yang miring (atau belakang): , di mana adalah matriks yang tegak lurus; adalah matriks ukuran miring yang sama; dan adalah matriks simetris sudut (cosinus) antara sumbu nonorthogonal.Y^RP=SCPpoints X axesSCaxes X axes

X1 dan adalah sumbu dalam kasus kami, dengan menjadi cosinus di antara mereka. Jadi, dan .X2r12r1=β1+β2r12r2=β1r12+β2

Pengganti ini s diekspresikan melalui s di @ Corone ini pernyataan , dan Anda akan mendapatkan bahwa , - yang benar , karena itu persis bagaimana diagonal dari jajaran genjang (diwarnai pada gambar) diekspresikan melalui sisi yang berdekatan (kuantitas menjadi produk skalar).β R 2 = r 1 β 1 + r 2 β 2 R 2 = β 2 1 + β 2 2 + 2 β 1 β 2 rrβR2=r1β1+r2β2 β 1 β 2 r 12R2=β12+β22+2β1β2r12 β1β2r12

Hal yang sama ini berlaku untuk sejumlah prediksi X. Sayangnya, tidak mungkin untuk menggambar gambar yang sama dengan banyak prediksi.

ttnphns
sumber
1
+1 senang melihatnya dibangun dengan cara ini juga, tapi ini tidak menambah wawasan dibandingkan dengan jawaban
whuber
2
@Corone, saya menambahkan beberapa "wawasan" yang mungkin Anda ambil.
ttnphns
1
+1 Sangat keren (setelah pembaruan). Saya berpikir bahwa menerapkan "aturan umum" untuk mengkonversi antar koordinat sedikit berlebihan (dan bagi saya hanya membingungkan); untuk melihat bahwa misal kita hanya perlu mengingat definisi cosinus dan melihat pada salah satu segitiga siku-siku. r1=β1+β2r12
amoeba
Sunting sangat keren, diaktifkan diterima.
Korone