Regresi sudut terkecil dan laso cenderung menghasilkan jalur regularisasi yang sangat mirip (identik kecuali ketika koefisien melintasi nol.)
Keduanya cocok secara efisien dengan algoritma yang hampir identik.
Adakah alasan praktis untuk lebih menyukai satu metode daripada yang lain?
regression
lasso
NPE
sumber
sumber
Jawaban:
Teorema "tanpa makan siang gratis" menunjukkan bahwa tidak ada perbedaan a-priori antara algoritma inferensi statistik, yaitu apakah LARS atau LASSO bekerja paling baik tergantung pada sifat dataset tertentu. Dalam praktiknya, yang terbaik adalah mencoba keduanya dan menggunakan beberapa penaksir kinerja generalisasi yang andal untuk memutuskan mana yang akan digunakan dalam operasi (atau menggunakan ansambel). Karena perbedaan antara LARS dan LASSO agak sedikit, perbedaan dalam kinerja cenderung agak sedikit juga, tetapi secara umum hanya ada satu cara untuk mengetahui dengan pasti!
sumber
Ketika digunakan dalam mode stage-wise, algoritma LARS adalah metode serakah yang tidak menghasilkan estimator yang terbukti konsisten (dengan kata lain, itu tidak menyatu dengan hasil yang stabil ketika Anda menambah jumlah sampel).
Sebaliknya, LASSO (dan dengan demikian algoritma LARS saat digunakan dalam mode LASSO) memecahkan masalah pemasangan data cembung. Secara khusus, masalah ini (L1 estimator linier dihukum) memiliki banyak sifat terbukti bagus (konsistensi, sparsistency).
Dengan demikian saya akan mencoba untuk selalu menggunakan LARS dalam mode LASSO (atau menggunakan solver lain untuk LASSO), kecuali jika Anda memiliki alasan yang sangat bagus untuk lebih memilih tahap-bijaksana.
sumber
LASSO bukan algoritma semata, tetapi operator.
Yang lain adalah LARS, sangat populer karena kesederhanaannya, koneksi dengan prosedur maju (namun tidak terlalu serakah), bukti yang sangat konstruktif dan generalisasi yang mudah.
Bahkan dibandingkan dengan pemecah pemrograman kuadratik yang canggih, LARS bisa jauh lebih efisien.
sumber
Tujuan dari jawaban ini adalah untuk menunjukkan bahwa LARS saat ini tampaknya telah diunggulkan dengan metode koordinat-keturunan dan metode -koordinat-keturunan stokastik . Metode-metode ini didasarkan pada algoritma yang sangat sederhana, sementara pada saat yang sama kinerjanya tampaknya lebih tinggi daripada LARS (seringkali satu atau dua kali lipat lebih cepat). Sebagai contoh, lihat makalah ini dari Friedman et al.
Jadi, jika Anda berencana untuk mengimplementasikan LARS, jangan. Gunakan koordinat-descent yang membutuhkan waktu beberapa jam.
sumber
Inilah pendapat saya:
Selain itu, LAR secara komputasi cepat dan andal. Lasso cepat tetapi ada perbedaan kecil antara algoritma yang menyebabkan LARS memenangkan tantangan kecepatan. Di sisi lain ada paket alternatif misalnya dalam R, yang disebut 'glmnet' yang berfungsi lebih dapat diandalkan daripada paket lars (karena lebih umum).
Singkatnya, tidak ada yang signifikan yang dapat dipertimbangkan tentang lars dan laso. Itu tergantung pada konteks yang akan Anda gunakan model.
Saya pribadi menyarankan menggunakan glmnet dalam R dalam kasus dimensi tinggi dan rendah. atau jika Anda tertarik pada kriteria yang berbeda, Anda dapat menggunakan http://cran.r-project.org/web/packages/msgps/ paket.
sumber
Dalam beberapa konteks, versi teregulasi dari solusi kuadrat terkecil mungkin lebih disukai. Algoritma LASSO (operator penyusutan dan pemilihan absolut), misalnya, menemukan solusi kuadrat-terkecil dengan kendala yang | β | 1, norma L1 dari vektor parameter, tidak lebih besar dari nilai yang diberikan. Secara ekuivalen, ia dapat menyelesaikan minimalisasi tak terbatas dari penalti kuadrat-terkecil dengan α | β | 1 menambahkan, di mana α adalah konstan (ini adalah bentuk Lagrangian dari masalah yang dibatasi.) Masalah ini dapat diselesaikan dengan menggunakan pemrograman kuadratik atau metode optimisasi cembung yang lebih umum, serta dengan algoritma khusus seperti algoritma regresi sudut paling sedikit. Formulasi yang diregulasi dengan L1 berguna dalam beberapa konteks karena kecenderungannya untuk lebih menyukai solusi dengan lebih sedikit nilai parameter bukan nol, secara efektif mengurangi jumlah variabel di mana solusi yang diberikan tergantung. [11] Untuk alasan ini, LASSO dan variannya merupakan hal mendasar dalam bidang penginderaan terkompresi.
sumber