Norma punggungan & LASSO

12

Posting ini mengikuti yang ini: Mengapa estimasi ridge menjadi lebih baik daripada OLS dengan menambahkan konstanta pada diagonal?

Ini pertanyaan saya:

Sejauh yang saya tahu, regularisasi ridge menggunakan -norm (jarak euclidean). Tetapi mengapa kita menggunakan kuadrat dari norma ini? (aplikasi langsung akan menghasilkan dengan akar kuadrat dari jumlah beta kuadrat).222

Sebagai perbandingan, kami tidak melakukan ini untuk LASSO, yang menggunakan -norm untuk mengatur. Tapi di sini itu norma "nyata" 1 (hanya jumlah kuadrat dari nilai absolut beta, dan bukan kuadrat dari jumlah ini).11

Dapatkah seseorang membantu saya mengklarifikasi?

PLOTZ
sumber
2
Istilah penalti dalam regresi ridge adalah norma L2 kuadrat. Lihat slide-slide ini yang ditulis oleh Tibshirani sebagai contoh (slide 7) stat.cmu.edu/~ryantibs/datamining/lectures/16-modr1.pdf Lihat juga di sini en.wikipedia.org/wiki/Tikhonov_regularization
boscovich
Poin klarifikasi kecil, ini adalah slide dari Ryan Tibshirani bukan Rob.
Ellis Valentiner
ok terima kasih banyak atas klarifikasi. Tapi saya tidak mengerti mengapa kuadrat untuk L2 dan tidak kuadrat untuk L1. Bukankah kita memiliki formula umum untuk segala jenis regularisasi?
PLOTZ
@ user12202013: terima kasih telah menunjukkannya. Saya tidak memperhatikan itu.
boscovich

Jawaban:

9

Ridge dan laso adalah dua cara regularisasi dan regresi. Regresi Lasso memberikan batasan pada jumlah koefisien absolut:

iβi2=||β||1

Regresi Ridge memberlakukan batasan jumlah perbedaan kuadrat:

iβi2=iβi22=||βi||22

Anda menyarankan untuk memperkenalkan bahkan norma lain, panjang koefisien euclidean:

iβi2=||βi||2

Perbedaan antara regresi Ridge dan panjang euclidean adalah kuadrat. Ini memang mengubah interpretasi regularisasi. Sementara kedua ridge dan panjang euclidean diatur ke arah nol, regresi ridge juga berbeda dalam jumlah regularisasi. Koefisien yang lebih jauh dari nol menarik lebih kuat ke nol. Ini membuatnya lebih stabil di sekitar nol karena perubahan regularisasi secara bertahap di sekitar nol. Ini bukan kasus untuk panjang euclidean, atau sebagai soal fakta, untuk regresi laso.

Pieter
sumber
7

Ada banyak pendekatan hukuman yang memiliki semua jenis fungsi penalti yang berbeda sekarang (ridge, laso, MCP, SCAD). Pertanyaan mengapa salah satu bentuk tertentu pada dasarnya adalah "apa kelebihan / kerugian yang diberikan hukuman seperti itu?".

Properti yang menarik mungkin:

1) penaksir yang hampir tidak bias (perhatikan semua penaksir yang dihukum akan bias)

2) Sparsity (perhatikan regresi ridge tidak menghasilkan hasil yang jarang, yaitu tidak mengecilkan koefisien sampai nol)

3) Kontinuitas (untuk menghindari ketidakstabilan dalam prediksi model)

Ini hanya beberapa properti yang mungkin tertarik pada fungsi penalti.

Jauh lebih mudah untuk bekerja dengan penjumlahan dalam derivasi dan kerja teoretis: misalnya dan | | β | | 1 = | β i | . Bayangkan jika kita punya ||β||22=|βi|2||β||1=|βi| atau(Σ|ßi|)2. Mengambil turunan (yang diperlukan untuk menunjukkan hasil teoretis seperti konsistensi, normalitas asimptotik, dll.) Akan menyebalkan dengan hukuman seperti itu.(|βi|2)(|βi|)2

bdeonovic
sumber
Ok terima kasih. Tapi mengapa kuadrat untuk L2 dan tidak kuadrat untuk L1? Bukankah kita memiliki formula umum untuk segala jenis regularisasi? Ini membingungkan saya ...
PLOTZ
@PLOTZ Saya menambahkan sedikit jawaban saya.
bdeonovic
Terima kasih banyak, Benyamin! Pasti sudah lebih jelas sekarang! Saya tidak mendapatkan tujuan teoretis ini sebelum jawaban Anda. Terima kasih banyak atas jawaban Anda.
PLOTZ
@Benjamin: pada poin # 1 maksud Anda sebenarnya "( tidak semua penaksir yang dihukum akan tidak memihak)"? Regresi punggungan –hanya menyebutkan satu– adalah bias.
boscovich
ups ya terima kasih untuk menangkap itu! Saya pikir pada kenyataannya semua penaksir yang dihukum akan menjadi bias.
bdeonovic
5

21 p > 0βppp>0

Regresi Ridge kemudian menggunakan , dan Lasso tetapi orang dapat menggunakan nilai lain dari .p = 1 pp=2p=1p

Misalnya Anda memiliki solusi jarang untuk semua nilai , dan semakin kecil nilai semakin jarang solusi.pp1p

Untuk nilai sasaran Anda tidak lebih mulus sehingga pengoptimalan menjadi lebih sulit; untuk tujuannya adalah non-cembung dan optimasi jadi lebih sulit ...p < 1p1p<1

Tonio Bonnef
sumber
2

Saya percaya ada jawaban yang lebih sederhana di sini, meskipun pertanyaan "mengapa" selalu sulit dijawab ketika suatu teknik dikembangkan. Kuadrat -norm digunakan sehingga istilah regularisasi mudah dibedakan. Regresi Ridge meminimalkan:l2

yXβ22+λβ22

Yang juga dapat ditulis:

yXβ22+λβTβ

Ini sekarang dapat dengan mudah dibedakan wrt untuk mendapatkan solusi bentuk tertutup:β

β^ridge=(XTX+λI)1XTy

dari mana semua agak inferensi dapat diturunkan.

Tim Atreides
sumber
1

Pertimbangkan satu perbedaan penting lainnya antara menggunakan kuadrat dari norma (yaitu regresi ridge) dan norma tidak dimodifikasi : turunan dari norma dari , , pada diberikan oleh dan karenanya tidak dapat dibedakan pada vektor nol. Yaitu, meskipun norma tidak melakukan pemilihan variabel individual seperti laso, secara teori ia dapat menghasilkan sebagai solusi untuk kemungkinan hukuman maksimum. Dengan mengkuadratkan2 2 x | | x | | 2 x x222x||x||2x2β=02x||x||22β=02 Dalam norma penalti, penalti tipe ridge dapat dibedakan di mana-mana dan tidak pernah dapat menghasilkan solusi seperti itu.

Perilaku ini persis (menurut pemahaman saya) mengapa kelompok laso (Yuan dan Lin) dan laso kelompok jarang (Simon, et al.), Dll, menggunakan norma (pada himpunan bagian koefisien yang ditentukan sebelumnya) alih-alih kuadrat dari norma .222

psboonstra
sumber