Mahalanobis berjarak antara dua distribusi bivariat dengan kovarian yang berbeda

9

Pertanyaannya cukup banyak terkandung dalam judul. Berapa jarak Mahalanobis untuk dua distribusi matriks kovarian yang berbeda? Apa yang saya temukan sampai sekarang mengasumsikan kovarian yang sama untuk kedua distribusi, yaitu, semacam ini:

ΔTΣ1Δ

Bagaimana jika saya memiliki dua berbeda ?Σ

Catatan: - Masalahnya adalah ini: ada dua distribusi bivariat yang memiliki dimensi yang sama tetapi yang dirotasi dan diterjemahkan satu sama lain (maaf saya berasal dari latar belakang matematika murni, bukan statistik satu). Saya perlu mengukur tingkat tumpang tindih / jarak mereka.

* Pembaruan: * Apa yang mungkin atau mungkin tidak tersirat dalam apa yang saya tanyakan adalah bahwa saya perlu jarak antara sarana dari dua distribusi. Saya tahu di mana sarana berada, tetapi karena dua distribusi diputar sehubungan dengan satu sama lain, saya perlu menetapkan bobot yang berbeda untuk orientasi yang berbeda dan karena itu jarak Euclidean sederhana antara sarana tidak bekerja. Sekarang, seperti yang telah saya pahami, jarak Mahalanobis tidak dapat digunakan untuk mengukur informasi ini jika distribusinya berbeda (tampaknya ia bekerja dengan dua distribusi normal multivariat kovarian identik, tetapi tidak dalam kasus umum). Apakah ada ukuran yang baik yang menyandikan keinginan ini untuk menyandikan orientasi dengan bobot yang berbeda?

Kristian D'Amato
sumber
1
Jarak Mahalanobis tidak masuk akal ketika distribusi berbeda. (Ini seperti mengatakan "Peter hidup dalam sebuah bidang dan Paul hidup dalam sebuah pesawat Euclidean; bagaimana kita menghitung jarak di antara mereka?") Mungkin Anda dapat mendukung satu langkah dan membantu kami memahami motivasi untuk pertanyaan: apa sebenarnya yang Anda lakukan ingin capai di sini? Apa konteks statistiknya?
whuber
Baiklah, saya sangat curiga. Alasan mengapa saya bertanya adalah karena saya telah melihat persamaan berikut yang digunakan untuk menghitung jarak 'Mahalanobis', atau begitulah diklaimnya: I ' Saya tidak terlalu yakin itu jarak Mahalanobis; Saya hanya mencerminkan apa yang diklaim. Apakah jarak Bhattacharya akan bekerja lebih baik di tempatnya?
ΔT\(Σ1Σ2\)1Δ
Kristian D'Amato
@ k-damato Mahalanobis distance mengukur jarak antara titik, bukan distribusi.
vqv
Baiklah, jadi apakah ada yang mengenali persamaan di atas sebagai sesuatu yang bermakna? Delta adalah vektor perpindahan.
Kristian D'Amato
@Kristian Saya telah menggabungkan dua akun duplikat Anda. Silakan gunakan akun terdaftar Anda, mulai sekarang.
chl

Jawaban:

6

Ada banyak pengertian jarak antara distribusi probabilitas. Yang mana untuk digunakan tergantung pada tujuan Anda. Total variasi jarak adalah cara alami untuk mengukur tumpang tindih antar distribusi. Jika Anda bekerja dengan Normals multivarian, Divergence Kullback-Leibler secara matematis nyaman. Meskipun sebenarnya bukan jarak (karena gagal menjadi simetris dan gagal mematuhi ketidaksetaraan segitiga), itu melampaui batas variasi total - lihat Ketimpangan dari Pinsker .

vqv
sumber
2
beberapa diskusi baru-baru ini di sini telah berfokus pada modifikasi pada divergensi KL yang menghasilkan metrik yang tepat. Jika Anda tertarik, lihat di sini dan di sini .
kardinal
3

Intro As @vqv menyebutkan variasi total dan Kullback Leibler adalah dua jarak yang menarik. Yang pertama bermakna karena dapat langsung berhubungan dengan kesalahan tipe pertama dan kedua dalam pengujian hipotesis. Masalah dengan Total variasi jarak adalah sulit untuk dihitung. Jarak Kullback Leibler lebih mudah untuk dihitung dan saya akan membahasnya nanti. Ini tidak simetris tetapi dapat dibuat simetris (entah bagaimana sedikit buatan).

Jawaban Sesuatu yang saya sebutkan di sini adalah bahwa jika adalah rasio kemungkinan log antara dua ukuran gaussian Anda (katakan bahwa untuk memiliki ukuran kesalahan rata-rata dan kovarians ) yang juga menarik perhatian (dalam kasus gaussian saya menemukannya cukup sentral sebenarnya) adalahLP0,P1i=0,1 PiμiCi

LL2(P1/2)2

untuk dipilih dengan baik .P1/2

Dengan kata sederhana :

  • mungkin ada rotasi "arah" menarik yang berbeda, yang diperoleh dengan menggunakan rumus Anda dengan salah satu dari matriks kovarians "interpolasi" ( atau ) didefinisikan di akhir posting ini (nomor adalah yang Anda usulkan dalam komentar Anda untuk pertanyaan Anda). Σ=Ci,1/2i=1,2,3,455
  • karena dua distribusi Anda memiliki kovarian yang berbeda, tidak cukup untuk membandingkan cara , Anda juga perlu membandingkan kovarian.

Biarkan saya menjelaskan kepada Anda mengapa ini adalah perasaan saya, bagaimana Anda dapat menghitung ini dalam kasus dan bagaimana memilih .C1C0P1/2

linier Jika .C1=C0=Σ

σ=ΔΣ1Δ=2LL2(P1/2)2

di mana adalah "interpolasi" antara dan (gaussian dengan covariance dan mean ). Perhatikan bahwa dalam kasus ini, jarak Hellinger, jarak variasi total semua dapat ditulis menggunakan .P1/2P1P0Σ(μ1+μ0)/2σ

Cara menghitung dalam kasus umumL Sebuah pertanyaan alami yang muncul dari pertanyaan Anda (dan pertanyaan saya ) adalah "interpolasi" alami antara dan saat . Di sini kata natural mungkin spesifik untuk pengguna tetapi misalnya itu mungkin terkait dengan interpolasi terbaik untuk memiliki batas atas yang ketat dengan jarak lain (misalnya jarak sini )P1P0C1C0L1

Menulis ( ) dapat membantu melihat di mana tugas interpolasi, tetapi:

L=ϕ(Ci1/2(xμi))ϕ(Cj1/2(xμj))12log(CiCj)
i=0,j=1

L(x)=12Aij(xsij),xsijRp+Gij,xsijRpcij,[1]

dengan

Aij=CiCj,Gij=Sijmij,Sij=Ci+Cj2,
cij=18Aijmij,mijRp+12log|det(CjCi)|

dan

mij=μiμjandsij=μi+μj2

lebih relevan untuk tujuan komputasi. Untuk setiap gaussian dengan mean dan kovarian perhitungan dari Persamaan sedikit teknis tapi cukup. Anda mungkin juga menggunakannya untuk menghitung jarak leibler Kulback.P1/2s01CLL2(P1/2)21

Interpolasi apa yang harus kita pilih (yaitu bagaimana memilih )P1/2 Jelas dipahami dari Persamaan bahwa ada banyak kandidat berbeda untuk (interpolasi) dalam kasus "kuadratik". Dua kandidat yang saya temukan "paling alami" (subyektif :)) muncul dari mendefinisikan untuk distribusi gaussian dengan rata-rata :1P1/2t[0,1]Pttμ1+(1t)μ0

  1. Pt1 sebagai distribusi (di mana diambil dari ) yang memiliki kovarian ).
    ξt=tξ1+(1t)ξ0
    ξiPi i=0,1Ct,1=(tC11/2+(1t)C01/2)2
  2. Pt2 dengan kovarians terbalikCt,21=tC11+(1t)C01
  3. Pt3 dengan kovariansCt,3=tC1+(1t)C0
  4. Pt4 dengan kovarians terbalikCt,41=(tC11/2+(1t)C01/2)2

EDIT: Yang Anda ajukan dalam komentar untuk pertanyaan Anda bisa , mengapa tidak ...Ct,5=C1tC01t

Saya punya pilihan favorit saya yang bukan yang pertama :) tidak punya banyak waktu untuk membahasnya di sini. Mungkin saya akan mengedit jawaban ini nanti ...

robin girard
sumber
2

Ini sudah tua, tetapi bagi orang lain yang membaca ini, matriks kovarians mencerminkan rotasi dari distribusi gaussian dan rerata mencerminkan terjemahan atau posisi sentral dari distribusi. Untuk mengevaluasi jarak mahab, cukup D = ((m2-m1) * inv ((C1 + C2) / 2) * (m2-m1) '). Sekarang jika Anda mencurigai bahwa dua distribusi bivariat adalah sama, tetapi Anda menduga bahwa keduanya telah dirotasi, maka hitunglah dua pasang vektor eigen dan nilai eigen untuk setiap distribusi. Vektor eigen menunjuk ke arah penyebaran data bivariat sepanjang sumbu utama dan minor dan nilai eigen menunjukkan panjang penyebaran ini. Jika nilai eigennya sama, maka kedua distribusi itu sama tetapi diputar. Ambil acos dari produk titik antara vektor eigen untuk mendapatkan sudut rotasi.

pembuat badai
sumber