Klasifikasi Naive Bayes adalah pengklasifikasi yang menetapkan item ke kelas berdasarkan pada memaksimalkan posterior untuk keanggotaan kelas, dan mengasumsikan bahwa fitur dari item tersebut independen.
Kehilangan 0-1 adalah kerugian yang menyebabkan hilangnya klasifikasi "miss", dan hilangnya "0" untuk klasifikasi yang benar.
Saya sering membaca (1) bahwa "Naive Bayes" Classifier, optimal untuk kerugian 0-1. Mengapa ini benar?
(1) Satu sumber keteladanan: Bayes classifier dan Bayes error
Jawaban:
Sebenarnya ini cukup sederhana: Bayes classifier memilih kelas yang memiliki kemungkinan kejadian posteriori terbesar (disebut maksimum estimasi posteriori ). The 0-1 kerugian menghukum fungsi kesalahan klasifikasi, yaitu akan menetapkan kerugian terkecil untuk solusi yang memiliki jumlah terbesar dari klasifikasi yang benar. Jadi dalam kedua kasus kita berbicara tentang mode estimasi . Ingat bahwa mode adalah nilai yang paling umum dalam dataset, atau nilai yang paling mungkin , sehingga memaksimalkan probabilitas posterior dan meminimalkan kehilangan 0-1 mengarah pada estimasi mode.
Jika Anda membutuhkan bukti formal, yang diberikan dalam makalah Pengantar Bayesian Decision Theory oleh Angela J. Yu:
Ini berlaku untuk estimasi posteriori maksimum secara umum. Jadi jika Anda mengetahui distribusi posterior, maka dengan asumsi 0-1 kerugian, aturan klasifikasi yang paling optimal adalah dengan mengambil mode distribusi posterior, kami menyebutnya classifier Bayes optimal . Dalam kehidupan nyata, kita biasanya tidak tahu distribusi posterior, tetapi kita memperkirakannya. Naive Bayes classifier mendekati penggolong optimal dengan melihat distribusi empiris dan dengan mengasumsikan independensi prediktor. Jadi pengklasifikasi naif Bayes itu sendiri tidak optimal, tetapi mendekati solusi optimal. Dalam pertanyaan Anda, Anda tampaknya membingungkan kedua hal itu.
sumber