Tentang apa itu "regresi penurunan peringkat"?

22

Saya telah membaca Elemen Pembelajaran Statistik dan saya tidak dapat memahami apa yang dimaksud dengan Bagian 3.7 "Penyusutan dan Seleksi Berganda Berganda". Ini berbicara tentang RRR (regresi tingkat rendah), dan saya hanya bisa mengerti bahwa premisnya adalah tentang model linear multivariat yang digeneralisasi di mana koefisien tidak diketahui (dan diperkirakan) tetapi diketahui tidak memiliki peringkat penuh. Hanya itu yang saya mengerti.

Sisa matematika di luar saya. Bahkan tidak membantu bahwa penulis mengatakan 'seseorang dapat menunjukkan' dan meninggalkan hal-hal sebagai latihan.

Dapatkah seseorang tolong bantu menjelaskan apa yang terjadi di sini, secara intuitif? Apakah bab ini seharusnya membahas metode baru? atau apa?

cgo
sumber
1
Tampaknya memberikan metode regresi yang memanfaatkan model multi-hasil dalam konteks penyusutan dan pemilihan variabel. Tidak ada hasil Y tunggal, tetapi lebih dari satu hasil Y. Katakanlah Anda memiliki hasil 5 Y, maka bagian ini membahas metode untuk menyatukan estimasi metode, bukan hanya membangun 5 model terpisah.
spdrnl
1
Beberapa sen saya: asumsi matriks peringkat rendah membuat segalanya lebih sederhana. Untungnya asumsi ini berlaku untuk banyak sumber data dunia nyata.
Vladislavs Dovgalecs
1
Sepertinya asumsi ini adalah tentang memiliki batasan pada solusi. Makalah ini menjelaskan mengapa statprob.com/encyclopedia/…
Vladislavs Dovgalecs

Jawaban:

42

1. Apa yang dimaksud dengan regresi penurunan-peringkat (RRR)?

Pertimbangkan regresi linier berganda multivariat, yaitu regresi dengan variabel independen dan variabel dependen q . Biarkan X dan Y menjadi pusat prediktor ( n × p ) dan respons ( n × q ) dataset. Kemudian regresi ordinary least square (OLS) biasa dapat dirumuskan sebagai meminimalkan fungsi biaya berikut:pqXYn×pn×q

L=YXB2,

di mana adalah matriks bobot regresi. Solusinya diberikan oleh dan mudah untuk melihat bahwa itu sama dengan melakukan regresi OLS terpisah, satu untuk setiap variabel dependen. p × q B O L S = ( XX ) - 1 XY , qBp×q

B^OLS=(XX)1XY,
q

Regresi Reduced-rank memperkenalkan kendala peringkat pada , yaitu harus diminimalkan dengan , di mana adalah maksimal rank diperbolehkan . L rank ( B ) r r BBLrank(B)rrB

2. Bagaimana cara mendapatkan solusi RRR?

Ternyata RRR dapat digunakan sebagai masalah vektor eigen. Memang, dengan menggunakan fakta bahwa OLS pada dasarnya adalah proyeksi ortogonal pada ruang kolom , kita dapat menulis ulang sebagaiIstilah pertama tidak tergantung pada dan istilah kedua dapat diminimalkan oleh SVD / PCA dari nilai yang dipasang . L L = Y - X B O L S2 + X B O L S - X B 2 . B Y = X B O L SXL

L=YXB^OLS2+XB^OLSXB2.
BY^=XB^OLS

Khususnya, jika adalah sumbu utama pertama dari , maka r Y B R R R = B O L S U r U r .UrrY^

B^RRR=B^OLSUrUr.

3. Untuk apa RRR?

Mungkin ada dua alasan untuk menggunakan RRR.

Pertama, seseorang dapat menggunakannya untuk tujuan regularisasi. Demikian pula untuk regresi ridge (RR), lasso, dll, RRR memperkenalkan beberapa "penyusutan" penalti pada . Peringkat optimal dapat ditemukan melalui validasi silang. Dalam pengalaman saya, RRR dengan mudah mengungguli OLS tetapi cenderung kalah dari RR. Namun, RRR + RR dapat melakukan (sedikit) lebih baik daripada RR saja. rBr

Kedua, seseorang dapat menggunakannya sebagai metode reduksi dimensi / eksplorasi data. Jika kita memiliki banyak variabel prediktor dan banyak variabel dependen, maka RRR akan membangun "faktor laten" di ruang prediktor yang melakukan pekerjaan terbaik dalam menjelaskan varians DV. Seseorang kemudian dapat mencoba untuk menafsirkan faktor-faktor laten ini, memplotnya, dll. Sejauh yang saya tahu, ini secara rutin dilakukan dalam ekologi di mana RRR dikenal sebagai analisis redundansi dan merupakan contoh dari apa yang mereka sebut metode penahbisan ( lihat jawaban @ GavinSimpson di sini ).

4. Hubungan dengan metode pengurangan dimensi lain

RRR terhubung erat dengan metode pengurangan dimensi lain, seperti CCA dan PLS. Saya membahasnya sedikit dalam jawaban saya untuk Apa hubungan antara kuadrat terkecil parsial, regresi peringkat berkurang, dan regresi komponen utama?

jika dan adalah data prediktor terpusat ( ) dan respons ( ) dan jika kita mencari pasangan sumbu pertama, untuk dan untuk , maka metode ini memaksimalkan jumlah berikut:XYn×pn×qwRpXvRqY

PCA:Var(Xw)RRR:Var(Xw)Corr2(Xw,Yv)Var(Yv)PLS:Var(Xw)Corr2(Xw,Yv)Var(Yv)=Cov2(Xw,Yv)CCA:Var(Xw)Corr2(Xw,Yv)

Lihat di sana untuk detail lebih lanjut.

Lihat Torre, 2009, Kerangka Kerja Setidaknya-Kuadrat untuk Analisis Komponen untuk perawatan terperinci tentang bagaimana sebagian besar metode multivariat linear umum (misalnya PCA, CCA, LDA, - tetapi bukan PLS!) Dapat dilihat sebagai RRR.

5. Mengapa bagian ini dalam Hastie et al. sangat membingungkan?

Hastie et al. gunakan istilah RRR untuk merujuk pada hal yang sedikit berbeda! Alih-alih menggunakan fungsi loss mereka menggunakan seperti dapat dilihat pada rumus mereka 3.68. Ini memperkenalkan faktor whitening ke fungsi loss, pada dasarnya memutihkan variabel dependen. Jika Anda melihat perbandingan antara CCA dan RRR di atas, Anda akan melihat bahwa jika diputihkan maka perbedaannya menghilang. Jadi apa yang Hastie et al. panggil RRR sebenarnya CCA yang menyamar (dan memang, lihat 3.69 mereka).

L=YXB2,
L=(YXB)(YY)1/22,
YY

Tidak ada yang dijelaskan dengan baik di bagian ini, karena itu membingungkan.


Lihat jawaban saya pada tutorial Ramah atau pengantar regresi tingkat rendah untuk bacaan lebih lanjut.

amuba kata Reinstate Monica
sumber
Ini adalah penjelasan terperinci yang ditulis dengan sangat baik. Terima kasih, saya menghargainya.
CGO
@amoeba Jawaban yang fantastis. Dapatkah saya menyarankan beberapa retouch agar lebih mudah diakses? Pada baris terakhir dari entri pertama, dapatkah Anda menjabarkan apa , misalnya, pangkat matriks model jika itu adalah apa adanya. Kedua, pada persamaan yang menentukan di bawah entri kedua, Anda memperkenalkan , yang merupakan koefisien populasi, dan dengan demikian merupakan parameter yang tidak diketahui. Bisakah Anda menguraikannya sedikit? rB
Antoni Parellada
1
(1) Ini adalah regresi multivariat , @Antoni, yaitu adalah matriks, dan juga merupakan matriks, bukan vektor. (2) Berikut hanya parameter dari hilangnya fungsi . Tujuannya adalah untuk menemukan meminimalkan . YBBLBL
Amoeba berkata Reinstate Monica
1
Tentang memilih peringkat optimal dalam RRRR, perhatikan bahwa derajat kebebasan dapat secara eksplisit dihitung sebagai fungsi : , di mana adalah dimensi input dan adalah dimensi output. Seseorang kemudian dapat menggunakan validasi silang umum (GCV) untuk memilih terbaik : meminimalkan . r ^ df ( r ) = p q - ( p - r ) ( q - r ) + "istilah koreksi kecil" p q r Y - Y rrrr ( r ) 2 Frorrdf^(r)=pq(pr)(qr)+"a small correction term"pqrYY^RRRR(r)Fro2(nqdf^(r))2
dohmatob
3

Reduced Rank Regression adalah model di mana tidak ada hasil Y tunggal, tetapi hasil Y ganda. Tentu saja, Anda dapat menyesuaikan regresi linier multivariat yang terpisah untuk setiap respons, tetapi ini tampaknya tidak efisien ketika hubungan fungsional antara prediktor dan masing-masing respons jelas serupa. Lihat latihan yang menakjubkan ini untuk situasi di mana saya percaya ini jelas berlaku.

https://www.kaggle.com/c/bike-sharing-demand/data

Ada beberapa teknik terkait untuk mendekati masalah ini yang membangun "faktor" atau "komponen" dari variabel X yang kemudian digunakan untuk memprediksi Ys. Halaman dokumentasi dari SAS ini membantu menjernihkan perbedaan bagi saya. Pengurangan Peringkat Regresi tampaknya mengenai mengekstraksi komponen yang secara maksimal memperhitungkan variasi di antara respons, berbeda dengan Partial Least Squares yang mengekstraksi komponen yang secara maksimal memperhitungkan variasi antara respons dan prediktor.

https://support.sas.com/documentation/cdl/en/statug/63347/HTML/default/viewer.htm#statug_pls_sect014.htm

Iggy25
sumber
+1. Itu benar. Saya membahas halaman dokumentasi SAS ini dan khususnya angka mereka dalam jawaban saya untuk stats.stackexchange.com/questions/206587.
Amoeba berkata Reinstate Monica