Saya mencoba memecahkan masalah untuk regresi sudut terkecil (LAR). Ini adalah masalah 3.23 pada halaman 97 dari Hastie et al., Elemen Pembelajaran Statistik, 2. ed. (Pencetakan ke-5) .
Pertimbangkan masalah regresi dengan semua variabel dan respons memiliki mean nol dan standar deviasi. Anggap juga bahwa setiap variabel memiliki korelasi absolut identik dengan respons:
Biarkan menjadi koefisien kuadrat terkecil dari di dan biarkan untuk \ alpha \ dalam [0,1] .
Saya diminta untuk menunjukkan bahwa
dan saya mengalami masalah dengan itu. Perhatikan bahwa ini pada dasarnya dapat mengatakan bahwa korelasi masing-masing dengan residual tetap sama besarnya ketika kita maju ke arah .
Saya juga tidak tahu bagaimana menunjukkan bahwa korelasinya sama dengan:
Pointer apa pun akan sangat dihargai!
Jawaban:
Ini adalah masalah 3.23 pada halaman 97 dari Hastie et al., Elemen Pembelajaran Statistik , 2. ed. (Pencetakan ke-5) .
Kunci dari masalah ini adalah pemahaman yang baik tentang kuadrat terkecil biasa (yaitu, regresi linier), khususnya ortogonalitas dari nilai yang dipasang dan residu.
Lemma ortogonalitas : Misalkan adalah matriks desain , vektor respons dan parameter (benar). Dengan asumsi adalah peringkat penuh (yang akan kita bahas), perkiraan OLS dari adalah . Nilai yang dipasang adalah . Kemudian . Artinya, nilai-nilai yang dipasang adalah ortogonal terhadap residu. Ini mengikuti sejak .n × p yX n×p y X β β = ( X T X ) - 1 X T y y = X ( X T X ) - 1 X T y ⟨ y , y - y ⟩ = y T ( y - y ) = 0 X T ( y -β X β β^=(XTX)−1XTy y^=X(XTX)−1XTy ⟨y^,y−y^⟩=y^T(y−y^)=0 XT(y−y^)=XTy−XTX(XTX)−1XTy=XTy−XTy=0
Sekarang, mari menjadi vektor kolom sehingga adalah th kolom . Kondisi yang diasumsikan adalah:x j j Xxj xj j X
Perhatikan bahwa secara khusus , pernyataan terakhir dari lemma ortogonalitas identik dengan untuk semua .j⟨xj,y−y^⟩=0 j
Korelasi terikat
Sekarang, . Jadi, dan suku kedua di sebelah kanan adalah nol oleh lemma ortogonalitas , jadi seperti yang diinginkan. Nilai absolut dari korelasi itu adil ⟨ x j , y - u ( a ) ⟩ = ⟨ x j , ( 1 - α ) y + α y - αu(α)=αXβ^=αy^ 1
Catatan : Sisi kanan di atas tidak bergantung pada dan pembilangnya sama dengan kovarians karena kita mengasumsikan bahwa semua dan berpusat (jadi, khususnya, tidak perlu pengurangan rata-rata dari rata-rata) ).x j yj xj y
Apa gunanya? Ketika meningkatkan vektor respons, dimodifikasi sehingga ia beringsut menuju solusi kuadrat-terkecil ( terbatas! ) Yang diperoleh dengan menggabungkan hanya parameter pertama dalam model. Ini secara bersamaan memodifikasi parameter yang diestimasi karena mereka adalah produk dalam sederhana dari prediktor dengan vektor respons (yang dimodifikasi). Modifikasi mengambil bentuk khusus. Itu menjaga (besarnya) korelasi antara prediktor dan respons yang dimodifikasi sama sepanjang proses (meskipun nilai korelasinya berubah). Pikirkan tentang apa yang dilakukan secara geometris dan Anda akan memahami nama prosedurnya!pα p
Bentuk eksplisit dari korelasi (absolut)
Mari kita fokus pada istilah dalam penyebut, karena pembilang sudah dalam bentuk yang diperlukan. Kami memiliki
Mengganti dalam dan menggunakan linearitas produk dalam, kita dapatkanu(α)=αy^
Perhatikan itu
Menyatukan semua ini, Anda akan melihat bahwa kami mendapatkannya
Untuk menyelesaikannya, dan jadi jelas bahwa secara monoton menurun dalam dan sebagai . ρ j(α)α ρ j(α)↓0α↑11−RSSN=1N(⟨y,y,⟩−⟨y−y^,y−y^⟩)≥0 ρ^j(α) α ρ^j(α)↓0 α↑1
Epilog : Berkonsentrasilah pada ide-ide di sini. Sebenarnya hanya ada satu. The ortogonalitas lemma melakukan hampir semua pekerjaan untuk kita. Sisanya hanyalah aljabar, notasi, dan kemampuan untuk membuat dua yang terakhir ini bekerja.
sumber