Menurut beberapa makalah yang saya baca, jarak Jeffries dan Matusita biasa digunakan. Tetapi saya tidak dapat menemukan banyak informasi tentang itu kecuali rumus di bawah ini
JMD (x, y) =
Ini mirip dengan jarak Euclidean kecuali untuk akar kuadrat
E (x, y) =
Jarak JM diklaim lebih dapat diandalkan daripada jarak Euclidean dalam hal klasifikasi. Adakah yang bisa menjelaskan mengapa perbedaan ini membuat jarak JM lebih baik?
classification
k-nearest-neighbour
euclidean
romy_ngo
sumber
sumber
Jawaban:
Beberapa perbedaan utama, sebelum penjelasan yang lebih panjang di bawah, adalah:
Jarak Jeffries-Matusita, yang tampaknya sangat populer dalam literatur Penginderaan Jauh, adalah transformasi jarak Bhattacharrya (ukuran populer dari ketidaksamaan antara dua distribusi, dinyatakan di sini sebagai ) dari jangkauan ke rentang tetap :bp,q [0,inf) [0,2–√]
Keuntungan praktis dari jarak JM, menurut makalah ini adalah bahwa ukuran ini "cenderung menekan nilai keterpisahan tinggi, sementara terlalu menekankan nilai keterpisahan rendah".
Jarak Bhattacharrya mengukur ketidaksamaan dua distribusi dan dalam pengertian berkesinambungan abstrak berikut: Jika distribusi dan ditangkap oleh histogram, yang diwakili oleh satuan panjang vektor (di mana elemen th adalah hitungan dinormalisasi untuk th sampah) ini menjadi: Dan akibatnya jarak JM untuk dua histogram adalah: Yang, mencatat bahwa untuk histogram dinormalisasip q
sumber