Kami memiliki banyak diskusi bagus tentang pemisahan sempurna dalam regresi logistik. Seperti, Regresi logistik dalam R menghasilkan pemisahan sempurna (fenomena Hauck-Donner). Sekarang apa? dan model regresi logistik tidak bertemu .
Saya pribadi masih merasa itu tidak intuitif mengapa itu akan menjadi masalah dan mengapa menambahkan regularisasi akan memperbaikinya. Saya membuat beberapa animasi dan berpikir itu akan sangat membantu. Jadi posting pertanyaannya dan jawab sendiri untuk berbagi dengan komunitas.
Jawaban:
Demo 2D dengan data mainan akan digunakan untuk menjelaskan apa yang terjadi untuk pemisahan sempurna pada regresi logistik dengan dan tanpa regularisasi. Percobaan dimulai dengan kumpulan data yang tumpang tindih dan kami secara bertahap memisahkan dua kelas. Kontur fungsi objektif dan optima (kerugian logistik) akan ditampilkan pada sub gambar kanan. Data dan batas keputusan linier diplot dalam sub gambar kiri.
Pertama kami mencoba regresi logistik tanpa regularisasi.
Selanjutnya kita mencoba regresi logistik dengan regularisasi L2 (L1 serupa).
Dengan pengaturan yang sama, menambahkan regularisasi L2 yang sangat kecil akan mengubah perubahan fungsi tujuan sehubungan dengan pemisahan data.
Dalam hal ini, kita akan selalu memiliki tujuan "cembung". Tidak peduli berapa banyak pemisahan yang dimiliki data.
kode (saya juga menggunakan kode yang sama untuk jawaban ini: Metode pengaturan untuk regresi logistik )
sumber