Mengapa mengoptimalkan campuran Gaussian secara langsung sulit secara komputasi?

18

Pertimbangkan kemungkinan log campuran Gaussians:

l(Sn;θ)=t=1nlogf(x(t)|θ)=t=1nlog{i=1kpif(x(t)|μ(i),σi2)}

Saya bertanya-tanya mengapa sulit secara komputasi untuk memaksimalkan persamaan itu secara langsung? Saya mencari intuisi yang jelas tentang mengapa harus jelas bahwa itu sulit atau mungkin penjelasan yang lebih keras mengapa sulit. Apakah ini masalah NP-complete atau kita belum tahu bagaimana menyelesaikannya? Apakah ini alasan kami menggunakan algoritma EM ( ekspektasi-maksimalisasi )?


Notasi:

Sn = data pelatihan.

x(t) = titik data.

θ = himpunan parameter yang menentukan Gaussian, meannya, standar deviasi, dan probabilitas menghasilkan titik dari setiap klaster / kelas / Gaussian.

pi = probabilitas menghasilkan titik dari cluster / class / Gaussian i.

Pinokio
sumber

Jawaban:

14

Pertama, GMM adalah algoritma tertentu untuk clustering, di mana Anda mencoba untuk menemukan label optimal Anda pengamatan. Memiliki k kelas mungkin, itu berarti bahwa ada k n mungkin labellings data pelatihan Anda. Ini menjadi sangat besar untuk nilai moderat k dan n .nkknkn

Kedua, fungsional yang Anda coba untuk meminimalkan tidak cembung, dan bersama-sama dengan ukuran masalah Anda, membuatnya sangat sulit. Saya hanya tahu bahwa k-means (GMM dapat dilihat sebagai versi lunak kmeans) adalah NP-hard. Tetapi saya tidak tahu apakah ini juga terbukti untuk GMM.

Untuk melihat bahwa masalahnya bukan cembung, pertimbangkan kasus satu dimensi: dan periksa bahwa Anda tidak dapat menjamin bahwa d 2 L

L=log(e(x/σ1)2+e(x/σ2)2)
d2Ldx2>0 untuk semua x.

Memiliki masalah non-cembung berarti Anda bisa terjebak dalam minimum lokal. Secara umum, Anda tidak memiliki jaminan kuat yang Anda miliki dalam optimasi cembung, dan mencari solusi juga jauh lebih sulit.

jpmuc
sumber
3
Mengenai poin kedua: k-means dapat dilihat sebagai kasus khusus GMM (lebih tepatnya, kasus batas di mana varians dibawa ke nol). Jika kita dapat mengurangi k-means untuk pemasangan GMM, yang terakhir harus menjadi masalah NP-hard juga.
Lucas
1
@Lucas: Ini adalah tautan yang divalidasi silang untuk komentar Anda.
Xi'an
7

Selain poin juampa, izinkan saya memberi sinyal kesulitan-kesulitan itu:

  • l(θ|Sn)+μ^(i)=x1σ^i=0
  • knl(θ|Sn)θgambar di bawah ini

diambil dari buku saya .

Komentar tambahan: tanpa memanggil algoritma EM, seseorang dapat menggunakan algoritma optimasi standar (seperti Newton-Raphson) satu parameter pada satu waktu, yaitu, iterate

  • θ1=argmaxθ1l(θ|Sn)
  • θ2=argmaxθ2l(θ1,θ1|Sn)
  • ...
  • θv=argmaxθvl(θv,θv|Sn)

vl(θ|Sn)

Xi'an
sumber
OK, L tidak terikat jika varians adalah 0. Tetapi jika kita mengecualikannya dari parameter yang mungkin (jadi kami menganggap semua varians> 0), maka L tidak boleh terlalu tinggi setiap kali varians yang dipilih sangat kecil (karena poin lain). Apakah saya benar? Kemudian, untuk set parameter yang mungkin ini, L akan dibatasi, dan ini akan menyiratkan bahwa algoritma EM menyatu (meningkatkan urutan dibatasi).
ahstat
@ ahstat: dengan asumsi varians yang benar-benar positif tidak mencegah EM untuk menyatu dengan solusi yang merosot jika mulai cukup dekat.
Xi'an