Pemahaman saya tentang regresi LASSO adalah bahwa koefisien regresi dipilih untuk menyelesaikan masalah minimalisasi:
Dalam praktiknya ini dilakukan dengan menggunakan pengali Lagrange, membuat masalah untuk dipecahkan
Apa hubungan antara dan ? Wikipedia tidak membantu hanya menyatakan bahwa "tergantung data".
Kenapa saya peduli? Pertama karena keingintahuan intelektual. Tetapi saya juga khawatir tentang konsekuensi untuk memilih dengan cross-validation.
Secara khusus, jika saya melakukan validasi silang n-lipat, saya memasangkan n model yang berbeda dengan n partisi berbeda dari data pelatihan saya. Saya kemudian membandingkan akurasi masing-masing model pada data yang tidak digunakan untuk \ lambda yang diberikan . Tetapi \ lambda yang sama menyiratkan kendala yang berbeda ( ) untuk himpunan bagian data yang berbeda (yaitu, adalah "data dependen").
Bukankah masalah validasi silang saya benar-benar ingin menyelesaikan untuk menemukan yang memberikan trade-off bias-akurasi terbaik?
Saya bisa mendapatkan gambaran kasar tentang ukuran efek ini dalam praktik dengan menghitung untuk setiap pemisahan validasi silang dan dan melihat distribusi yang dihasilkan. Dalam beberapa kasus, kendala tersirat ( ) dapat bervariasi diam secara substansial di seluruh subset validasi silang saya. Di mana secara substansial yang saya maksud adalah koefisien variasi dalam .
sumber
Jawaban:
Ini adalah solusi standar untuk regresi ridge :
Kita juga tahu bahwa , jadi itu pasti benar∥β∥=t
yang tidak mudah dipecahkan untuk .λ
Taruhan terbaik Anda adalah terus melakukan apa yang Anda lakukan: menghitung pada sub-sampel data yang sama di beberapa nilai .t λ
sumber