Pros dari jarak Jeffries Matusita

11

Menurut beberapa makalah yang saya baca, jarak Jeffries dan Matusita biasa digunakan. Tetapi saya tidak dapat menemukan banyak informasi tentang itu kecuali rumus di bawah ini

JMD (x, y) =(xi2yi2)22

Ini mirip dengan jarak Euclidean kecuali untuk akar kuadrat

E (x, y) =(xiyi)22

Jarak JM diklaim lebih dapat diandalkan daripada jarak Euclidean dalam hal klasifikasi. Adakah yang bisa menjelaskan mengapa perbedaan ini membuat jarak JM lebih baik?

romy_ngo
sumber
1
Saya tidak dapat menemukan referensi resmi yang menggunakan rumus ini untuk jarak Jeffries-Matusita. Rumus yang saya temukan didasarkan pada matriks kovarian untuk dua kelas dan tampaknya tidak memiliki hubungan dengan yang diberikan di sini, tetapi tampaknya mungkin ada dua (atau lebih) hal berbeda yang dikenal dengan nama ini. Bisakah Anda memberikan referensi atau (bahkan lebih baik) tautan? BTW, apakah dan dianggap kebetulan? (Jika demikian, ada interpretasi alami dari formula Anda.)xiyi
whuber
1
@whuber: mungkin dan berdiri untuk dany p ( x ) q ( x )xyp(x)q(x)
user603
@ user603 Ya, saya pikir Anda sudah mendapatkannya. Sekarang koneksi ke divergensi KL dan ukuran Battacharyya menjadi jelas.
whuber

Jawaban:

14

Beberapa perbedaan utama, sebelum penjelasan yang lebih panjang di bawah, adalah:

  1. Yang terpenting: jarak Jeffries-Matusita berlaku untuk distribusi, bukan vektor pada umumnya.
  2. Rumus jarak JM yang Anda kutip di atas hanya berlaku untuk vektor yang mewakili distribusi probabilitas diskrit (yaitu vektor yang berjumlah 1).
  3. Tidak seperti jarak Euclidean, jarak JM dapat digeneralisasi ke distribusi mana pun yang jarak Bhattacharrya dapat dirumuskan.
  4. Jarak JM, melalui jarak Bhattacharrya, memiliki interpretasi probabilistik.

Jarak Jeffries-Matusita, yang tampaknya sangat populer dalam literatur Penginderaan Jauh, adalah transformasi jarak Bhattacharrya (ukuran populer dari ketidaksamaan antara dua distribusi, dinyatakan di sini sebagai ) dari jangkauan ke rentang tetap :bp,q[0,inf)[0,2]

JMp,q=2(1exp(b(p,q))

Keuntungan praktis dari jarak JM, menurut makalah ini adalah bahwa ukuran ini "cenderung menekan nilai keterpisahan tinggi, sementara terlalu menekankan nilai keterpisahan rendah".

Jarak Bhattacharrya mengukur ketidaksamaan dua distribusi dan dalam pengertian berkesinambungan abstrak berikut: Jika distribusi dan ditangkap oleh histogram, yang diwakili oleh satuan panjang vektor (di mana elemen th adalah hitungan dinormalisasi untuk th sampah) ini menjadi: Dan akibatnya jarak JM untuk dua histogram adalah: Yang, mencatat bahwa untuk histogram dinormalisasipq

b(p,q)=lnp(x)q(x)dx
pqiiN
b(p,q)=lni=1Npiqi
JMp,q=2(1i=1Npiqi)
ipi=1, sama dengan rumus yang Anda berikan di atas:
JMp,q=i=1N(piqi)2=i=1N(pi2piqi+qi)=2(1i=1Npiqi)
rroowwllaanndd
sumber
+1 Terima kasih banyak telah meloncat dan membuat upaya yang dilakukan dengan sangat baik ini untuk mengklarifikasi situasi.
whuber