Saya pikir itu tergantung pada bagaimana menggunakannya.
PQ
J( P, Q ) = 12( D(P∣ ∣ R ) + D ( Q ∣ ∣ R ) )
R = 12( P+ Q )D ( ⋅ ∣ ∣ ⋅ )
Sekarang, saya akan tergoda untuk menggunakan akar kuadrat dari Divergensi Jensen-Shannon karena itu adalah metrik , yaitu memenuhi semua sifat "intuitif" dari pengukuran jarak.
Untuk detail lebih lanjut tentang ini, lihat
Endres dan Schindelin, Metrik baru untuk distribusi probabilitas , IEEE Trans. pada Info. Engkau. , vol. 49, tidak. 3, Jul. 2003, hlm. 1858-1860.
Tentu saja, dalam beberapa hal, itu tergantung pada apa yang Anda butuhkan. Jika Anda menggunakannya untuk mengevaluasi beberapa ukuran berpasangan, maka setiap transformasi monoton JSD akan bekerja. Jika Anda mencari sesuatu yang paling dekat dengan "jarak kuadrat", maka JSD itu sendiri adalah jumlah yang analog.
Secara kebetulan, Anda mungkin juga tertarik dengan pertanyaan sebelumnya dan jawaban serta diskusi yang terkait.
J(P,Q) = J(Q,P)
. Saya membaca bahwa divergensi JS simetris dalam P dan Q. Apakah ini artinyaJS(P,Q) = JS(Q,P)
? Saya menanyakan ini karena saya menggunakanKLdiv
fungsi dariflexmix
paket diR
. Untuk dua distribusi saya, keluaran matriks dari KLdiv tidak simetris. Saya mengharapkan JS untuk memperbaikinya tetapi output dari JS (dihitung menggunakan KL) tidak simetris.