Penggunaan estimasi kepadatan kernel di Naive Bayes Classifier?

9

Pertanyaan ini merupakan tindak lanjut dari pertanyaan saya sebelumnya di sini dan juga terkait, dengan maksud, dengan pertanyaan ini .

Pada halaman wiki ini, nilai kepadatan probabilitas dari asumsi distribusi normal untuk rangkaian pelatihan digunakan untuk menghitung posterior Bayes daripada nilai probabilitas aktual. Namun, jika set pelatihan tidak terdistribusi secara normal, apakah akan sama validnya untuk menggunakan nilai kepadatan yang diambil dari estimasi kepadatan kernel dari set pelatihan untuk menghitung posterior Bayesian?

Dalam aplikasi yang dimaksud perkiraan kerapatan kernel ini akan diambil dari set data empiris yang ideal secara teoritis yang dihasilkan oleh teknik MC.

babelproofreader
sumber

Jawaban:

5

Saya telah membaca pertanyaan pertama yang dikaitkan sebelumnya, terutama jawaban dari whuber dan komentar tentang ini.

Jawabannya adalah ya, Anda bisa melakukannya, yaitu menggunakan kepadatan dari kde variabel numerik sebagai probabilitas bersyarat (P(X=x|C=c) dalam teorema bayes. P(C=c|X=x)=P(C=c)P(X=x|C=c)/P(X=x)

Dengan mengasumsikan bahwa d (tinggi) sama di semua kelas, d (tinggi) dinormalisasi ketika teorema diterapkan, yaitu ketika P(X=x|C=c) dibagi dengan P(X=x).

Makalah ini bisa menarik bagi Anda: memperkirakan distribusi kontinu dalam pengklasifikasi bayesian

steffen
sumber