Referensi yang membenarkan penggunaan Campuran Gaussian

14

Model campuran Gaussian (GMM) menarik karena mudah digunakan baik secara analitis maupun dalam praktik, dan mampu memodelkan beberapa distribusi eksotis tanpa terlalu banyak kerumitan. Ada beberapa sifat analitik yang harus kita pegang yang umumnya tidak jelas. Khususnya:

  • SnnPnP
    limninfP^SnD(P||P^)=0?
  • Katakanlah kita memiliki distribusi kontinu dan kami telah menemukan campuran komponen Gaussian yang dekat dengan dalam variasi total: . Bisakah kita mengikat D (P || \ hat {P}) dengan \ epsilon ?PP P δ ( P , P ) < ε D ( P | | P ) εNP^Pδ(P,P^)<εD(P||P^)ϵ
  • Jika kita ingin mengamati XPX melalui noise aditif independen YPY (keduanya nyata, berkelanjutan), dan kami memiliki GMM X^QX,Y^QN mana δ(P,Q)<ϵ , maka apakah nilainya kecil:
    |mmse(X|X+Y)mmse(X^|X^+Y^)|,
    yaitu apakah benar bahwa memperkirakan X sampai Y noise hampir sama sulitnya dengan memperkirakan X^ melalui Y^ noise?
  • Bisakah Anda melakukannya untuk model kebisingan non-aditif seperti kebisingan Poisson?

Ulasan literatur saya (singkat) sejauh ini baru saja muncul tutorial yang sangat diterapkan. Adakah yang punya referensi yang menunjukkan dengan ketat dalam kondisi apa kita dibenarkan menggunakan model campuran?

enthdegree
sumber
3
Himpunan GMM padat dalam himpunan distribusi dalam topologi yang lemah (sesuai dengan konvergensi dalam distribusi); lihat misalnya di sini . Saya tidak yakin apakah pernyataan pertama Anda memegang, meskipun itu pasti akan memerlukan memungkinkan komponen nol-varians dalam campuran untuk menangani setiap massa titik di . Saya juga skeptis tentang poin kedua, lagi karena masalah titik massa. P
Dougal
1
Poin bagus, saya sudah menentukan semuanya harus kontinu
enthdegree
1
Anda mungkin lebih beruntung melihat literatur tentang estimasi kepadatan kernel dengan kernel Gaussian. Karena Anda memiliki campuran Gaussians dengan satu per sampel, karena jumlah sampel meningkat, apakah Anda mendapatkan penduga yang tidak bias dan konsisten dari distribusi? Saya pikir jawabannya adalah ya, tetapi tidak dapat segera menemukan referensi.
Greg Ver Steeg
2
@enthdegree: Pertanyaan yang sangat bagus. Karena Anda ingin menggunakan topologi yang kuat (KL divergensi dan variasi total), jawaban umum untuk dua poin pertama Anda adalah tidak: misalnya, pertimbangkan distribusi berekor lemak; KL untuk setiap campuran gaussian terbatas tidak terbatas (saya cukup yakin ini bekerja, meskipun tidak 100%). Tetapi ini mengarah pada pertanyaan yang jauh lebih menarik, untuk subclass mana dari distribusi probabilitas yang akan diterapkan oleh semua poin Anda? Saya tidak tahu jawabannya tetapi tampaknya sangat menarik. Dugaan saya mungkin hampir semua distribusi probabilitas.
Guillaume Dehaene
1
Saya mengambil kelas dengan buku ini. Link Ini melakukan beberapa latar belakang yang layak pada fundamental.
EngrStudent

Jawaban:

0

Dalam ekonometrik, di mana konteksnya adalah distribusi campuran koefisien dalam model logit, referensi standar adalah: MODEL MNL CAMPURAN UNTUK RESPON BISNIS DANIEL MCFADDEN DAN KERETA KENNETH, JURNAL ECONOMETRICS, J. Appl. Econ. 15: 447-470 (2000).

Tim
sumber
0

Sehubungan dengan pertanyaan Anda:

  1. Untuk masalah Bayesian yang sangat mirip dari campuran Prosesauschaus gaussians, saya mengerti jawabannya adalah ya. Ghosal (2013) .
  2. Ketika saya menghadiri beberapa pembicaraan tentang topik ini, sepertinya kemajuan telah dibuat terutama menggunakan perbedaan KL. Lihat slide Harry van Zanten .
  3. Saya tidak jelas. Namun, ini tampak seperti masalah pemisahan sumber ( dikenal). Ini umumnya jauh lebih sulit daripada pemodelan campuran saja. Khususnya untuk kasus sederhana Anda tidak akan dapat mengidentifikasi sebenarnyaP N = P S = N ( 0 , 1 ) X YPN,PSPN=PS=N(0,1)X dan karena simetri distribusi sekitar nol.Y
  4. Lihat slide keempat yang ditautkan di atas, ada daftar model Bayesian yang jaminan konvergensinya berlaku.
dugaan
sumber
0

Ini jawaban parsial.

Say adalah kelas dari semua campuran Gaussian dengan komponen. Untuk setiap distribusi kontinu pada real, apakah kami dijamin bahwa ketika tumbuh, kami dapat memperkirakan dengan GMM dengan kerugian yang dapat diabaikan dalam artian relatif entropi? Yaitu, apakah n P n P lim n inf PS n D ( P | | P ) = 0 ?SnnPnP

limninfP^SnD(P||P^)=0?

No Anda hanya bisa berharap bahwa KL divergensi kecil jika Anda tahu bahwa 'ekor s adalah akhirnya dari urutan yang sama seperti ' s. Ini tidak benar secara umum. Tidaklah sulit untuk melihat bahwa untuk Cauchy maka untuk ,Q P P n inf PS n D ( P | | P ) = D(PQ)QPPn

infP^SnD(P||P^)=

Diperlukan lebih banyak kondisi pada untuk mengatakan itu.P

Katakanlah kita memiliki distribusi kontinu dan kami telah menemukan campuran komponen Gaussian yang dekat dengan dalam variasi total: . Bisakah kita mengikat dengan ?N P P δ ( P , P ) < ε D ( P | | P ) εPNP^Pδ(P,P^)<εD(P||P^)ϵ

Tidak. Contoh yang sama di atas berlaku.

Jika kita ingin mengamati melalui noise aditif independen (keduanya nyata, berkelanjutan), dan kami memiliki GMM mana , maka apakah nilainya kecil: yaitu apakah benar bahwa memperkirakan sampai noise hampir sama sulitnya dengan memperkirakan melalui noise? Y ~ P Y X ~ Q X , Y ~ Q Y δ ( P , Q ) < ε | m m s e ( X | X + Y ) - m m s e ( X | X + Y ) | , X Y XXPXYPYX^QX,Y^QYδ(P,Q)<ϵ

|mmse(X|X+Y)mmse(X^|X^+Y^)|,
XYX^Y^

Saya tidak tahu Jika memiliki mean dan varian hingga maka MMSE adalah dan (derivasi sederhana di sini ). Dengan asumsi ini, tujuannya adalah untuk menentukan apakahkecil ketika kecil.X,Y,X^,Y^E[X|Y]E[X^|Y^]|EP[(EP[X|Y]X)2]EQ[(EQ[X|Y]X)2]|TV(P,Q)Terkait

Saya belum dapat membuktikan ini, baik secara umum atau menggunakan struktur aditif tambahan yang kita asumsikan pada P, Q, atau menghasilkan contoh tandingan.

Bisakah Anda melakukannya untuk model kebisingan non-aditif seperti kebisingan Poisson?

Ini ambigu. Dalam konteks pertanyaan sebelumnya, jika pernyataan dalam jawaban itu dapat dibuktikan secara umum maka jawabannya adalah ya.

enthdegree
sumber