Awalnya saya pikir urutannya tidak penting, tetapi kemudian saya membaca tentang proses ortogonisasi gram-schmidt untuk menghitung beberapa koefisien regresi, dan sekarang saya sedang berpikir dua kali.
Menurut proses gram-schmidt, variabel penjelas selanjutnya diindeks di antara variabel-variabel lainnya, semakin kecil vektor residualnya karena vektor residual variabel sebelumnya dikurangi dari itu. Akibatnya, koefisien regresi variabel penjelas juga lebih kecil.
Jika itu benar, maka vektor residual dari variabel yang dimaksud akan lebih besar jika diindeks lebih awal, karena vektor residual yang lebih sedikit akan dikurangi dari itu. Ini berarti bahwa koefisien regresi juga akan lebih besar.
Ok, jadi saya diminta untuk mengklarifikasi pertanyaan saya. Jadi saya telah memposting tangkapan layar dari teks yang membuat saya bingung sejak awal. Oke, ini dia.
Pemahaman saya adalah bahwa setidaknya ada dua opsi untuk menghitung koefisien regresi. Opsi pertama dilambangkan (3.6) pada tangkapan layar di bawah ini.
Ini adalah pilihan kedua (saya harus menggunakan beberapa tangkapan layar).
Kecuali saya salah membaca sesuatu (yang pasti mungkin), tampaknya ketertiban penting dalam opsi kedua. Apakah itu penting dalam opsi pertama? Mengapa atau mengapa tidak? Atau apakah kerangka referensi saya sangat kacau sehingga ini bahkan bukan pertanyaan yang valid? Juga, apakah ini semua terkait dengan Tipe I Jumlah Kuadrat vs Tipe II Jumlah Kuadrat?
Terima kasih banyak sebelumnya, saya sangat bingung!
Jawaban:
Saya percaya kebingungan mungkin timbul dari sesuatu yang sedikit lebih sederhana, tetapi memberikan peluang bagus untuk meninjau beberapa hal terkait.
Perhatikan bahwa teks tersebut tidak mengklaim bahwa semua koefisien regresi dapat dihitung melalui vektor residual berturut-turut sebagai tetapi lebih dari itu hanya yang terakhir , , yang dapat dihitung dengan cara ini!β^saya Β p
Skema ortogonisasi yang berurutan (bentuk Gram-Schmidt) adalah (hampir) menghasilkan sepasang matriks dan sehingga mana adalah dengan kolom ortonormal dan adalah segitiga atas. Saya mengatakan "hampir" karena algoritma ini hanya menentukan hingga norma-norma kolom, yang secara umum tidak akan menjadi satu, tetapi dapat dibuat memiliki norma satuan dengan menormalkan kolom dan membuat penyesuaian sederhana yang sesuai dengan koordinat matriks .G X = Z GZ G Z n × p G = ( g i j ) p × p Z G.
Dengan asumsi, tentu saja, bahwa memiliki peringkat , solusi kuadrat terkecil yang unik adalah vektor yang memecahkan sistem p ≤ n β X T X β = X T yX ∈ Rn × p p ≤ n β^
Mengganti dan menggunakan (dengan konstruksi), kita mendapatkan yang setara dengan Z T Z = I G T G β = G T Z T yX = Z G ZTZ = I
Sekarang, berkonsentrasilah pada baris terakhir dari sistem linear. Satu-satunya elemen bukan nol dari di baris terakhir adalah . Jadi, kita dapatkan Tidak sulit melihat (verifikasi ini sebagai pemeriksaan pemahaman!) Bahwadan ini menghasilkan solusi. ( Caveat lector : Saya telah menggunakan telah dinormalisasi untuk memiliki norma satuan, sedangkan dalam buku tidak memilikinya . Ini menjelaskan fakta bahwa buku tersebut memiliki norma kuadrat dalam penyebut, sedangkan saya hanya memiliki norma.)G gp p
Untuk menemukan semua koefisien regresi, seseorang perlu melakukan langkah substitusi balik sederhana untuk dipecahkan bagi individu . Misalnya, untuk baris , dan sebagainya Seseorang dapat melanjutkan prosedur ini dengan bekerja "mundur" dari baris terakhir sistem hingga yang pertama, mengurangi jumlah bobot dari koefisien regresi yang sudah dihitung dan kemudian membaginya dengan istilah terkemuka untuk mendapatkan .(p-1)β^saya ( p - 1 )
Poin di bagian ESL adalah kita dapat menyusun ulang kolom untuk mendapatkan matriks baru dengan kolom asli ke- sekarang menjadi yang terakhir. Jika kita kemudian menerapkan prosedur Gram-Schmidt pada matriks baru, kita mendapatkan orthogonalization baru sehingga solusi untuk koefisien asli ditemukan oleh solusi sederhana di atas. Ini memberi kami interpretasi untuk koefisien regresi . Ini adalah regresi univariat dari pada vektor residual yang diperoleh dengan "mundur" kolom yang tersisa dari matriks desain dari .X ( r ) r β r β r y x rX X(r) r β^r β^r y xr
Dekomposisi QR umum
Prosedur Gram-Schmidt hanyalah salah satu metode menghasilkan QR dekomposisi . Memang, ada banyak alasan untuk lebih menyukai pendekatan algoritmik lainnya daripada prosedur Gram-Schmidt.X
Refleksi Householder dan rotasi Givens memberikan pendekatan yang lebih stabil secara numerik untuk masalah ini. Perhatikan bahwa pengembangan di atas tidak berubah dalam kasus umum penguraian QR. Yakni, biarkan menjadi salah dekomposisi QR dari . Kemudian, dengan menggunakan penalaran dan manipulasi aljabar yang persis sama seperti di atas, kita memiliki solusi kuadrat-terkecil memenuhi yang disederhanakan menjadi Karena mR adalah segitiga atas, maka teknik substitusi backs yang sama berfungsi. Kami pertama-tama menyelesaikannya untuk
Gagasan penguraian ini sebagai matriks ortogonal dikali sesuatu yang lain dapat digeneralisasi sedikit lebih jauh juga untuk mendapatkan bentuk yang sangat umum untuk vektor pas , tetapi saya khawatir respons ini sudah menjadi terlalu lama .X y^
sumber
Saya telah melihat-lihat buku ini dan sepertinya latihan 3.4 mungkin berguna dalam memahami konsep menggunakan GS untuk menemukan semua koefisien regresi (bukan hanya koefisien akhir - jadi saya mengetikkan solusi. Semoga ini adalah solusi. berguna.βj βp
Latihan 3.4 dalam ESL
Larutan
Ingatlah bahwa dengan satu langkah tunggal prosedur Gram-Schmidt, kita dapat menulis matriks sebagai mana berisi kolom ortogonal , dan adalah matriks diagonal-atas dengan yang ada pada diagonal, dan . Ini adalah cerminan dari fakta bahwa menurut definisi,X
Sekarang, dengan dekomposisi , kita dapat menulis , di mana adalah matriks ortogonal dan adalah matriks segitiga atas. Kami memiliki dan , di mana adalah matriks diagonal dengan.QR X=QR Q R Q=ZD−1 R=DΓ D Djj=∥zj∥
Sekarang, dengan definisi , kita memiliki Sekarang, menggunakan dekomposisi , kami telahβ^
sumber
Mengapa tidak mencobanya dan membandingkannya? Sesuaikan satu set koefisien regresi, kemudian ubah urutannya dan cocokkan lagi dan lihat apakah ada perbedaan (selain kesalahan pembulatan yang mungkin).
Seperti yang ditunjukkan oleh @mpiktas, tidak jelas apa yang Anda lakukan.
Saya dapat melihat menggunakan GS untuk menyelesaikan dalam persamaan kuadrat terkecil . Tapi kemudian Anda akan melakukan GS pada matriks , bukan data asli. Dalam hal ini koefisien harus sama (selain kemungkinan kesalahan pembulatan).( x ′ x ) B = ( x ′ y ) ( x ′ x )B (x′x)B=(x′y) (x′x)
Pendekatan lain dari GS dalam regresi adalah menerapkan GS ke variabel prediktor untuk menghilangkan kolinearitas di antara mereka. Kemudian variabel ortogonalized digunakan sebagai prediktor. Dalam hal ini urutan masalah dan koefisien akan berbeda karena interpretasi koefisien tergantung pada urutan. Pertimbangkan 2 prediktor dan dan lakukan GS pada mereka dalam urutan itu kemudian gunakan sebagai prediktor. Dalam hal itu koefisien pertama (setelah intersepsi) menunjukkan efek pada dengan sendirinya dan koefisien kedua adalah efek pada setelah disesuaikan untukx 2 x 1 y x 2 y x 1 x 2 y x 1 x 1 x 2x1 x2 x1 y x2 y x1 . Sekarang jika Anda membalik urutan x maka koefisien pertama menunjukkan efek pada dengan sendirinya (mengabaikan daripada menyesuaikan untuk itu) dan yang kedua adalah efek menyesuaikan untuk .x2 y x1 x1 x2
sumber