Model Markov tersembunyi dan algoritma maksimalisasi harapan

10

Adakah yang bisa menjelaskan bagaimana tersembunyinya model Markov terkait dengan maksimalisasi harapan? Saya telah melalui banyak tautan tetapi tidak dapat menghasilkan tampilan yang jelas.

Terima kasih!

terima kasih
sumber

Jawaban:

12

Algoritma EM (ekspektasi maksimisasi) adalah algoritma umum untuk optimalisasi fungsi kemungkinan dalam kasus-kasus di mana model ditentukan secara probabilistik dalam hal komponen yang diamati dan tidak teramati (laten). HMM (model Markov tersembunyi) adalah model bentuk ini karena mereka memiliki komponen yang tidak teramati, keadaan tersembunyi, dan pengamatan aktual sering disebut emisi dalam terminologi HMM. Oleh karena itu, HMM membentuk kelas model yang algoritma EM dapat berguna.

(X,Y)halθ(x,y)θX=x

L.x(θ)=yhalθ(x,y).
θ
  • xθ
  • yang M-langkah , yang merupakan maksimalisasi sebuah

Algoritma EM paling masuk akal jika dua langkah di atas dapat diimplementasikan dengan cara yang efisien secara komputasi, misalnya ketika kita telah menutup bentuk ekspresi untuk harapan bersyarat dan maksimalisasi.

Secara historis, algoritma-EM umum dikreditkan ke Dempster, Laird dan Rubin , yang membuktikan dalam makalah 1977 mereka, antara lain, bahwa algoritma mengarah ke urutan parameter dengan nilai kemungkinan peningkatan yang secara monoton. Mereka juga menciptakan istilah "algoritma EM". Menariknya, algoritma-EM untuk HMM telah dijelaskan pada tahun 1970 oleh Baum et al. , dan juga sering disebut sebagai algoritma Baum-Welch dalam literatur HMM (saya tidak tahu persis apa yang dilakukan Welch ...).

NRH
sumber
3
Welch menemukan apa yang sekarang disebut algoritma Baum-Welch (ia menyebutnya "bagian yang mudah"); Baum membuktikan secara matematis bahwa algoritma bekerja ("bagian yang sulit"). Lihat course.cs.tamu.edu/rgutier/cpsc689_s07/welch2003baumWelch.pdf untuk detail yang tepat.
Mikhail Korobov
@MikhailKorobov, terima kasih untuk referensi informatif ini.
NRH
2

Maksimalisasi Ekspektasi adalah metode berulang yang digunakan untuk melakukan inferensi statistik pada berbagai model statistik generatif yang berbeda, misalnya campuran Gaussians, dan model tipe jaringan Bayesian lainnya. Satu-satunya koneksi adalah bahwa HMM juga merupakan jaringan Bayesian. Tetapi orang mungkin tidak akan menggunakan EM pada HMM karena ada algoritma yang tepat untuk inferensi dalam HMM yang disebut algoritma Viterbi. Jadi, meskipun seseorang dapat menggunakan EM untuk melakukan inferensi pada HMM, Anda tidak akan melakukannya karena tidak ada alasan untuk melakukannya.

William
sumber
4
Ini tidak sepenuhnya akurat karena Anda mencampur dua jenis "inferensi" yang berbeda. EM adalah algoritma untuk estimasi parameter yang tidak diketahui, Viterbi adalah algoritma untuk menghitung urutan keadaan tersembunyi yang paling mungkin. Anda tentu saja akan menggunakan EM untuk HMM untuk estimasi parameter. Saya telah memberikan rincian lebih lanjut tentang algoritma-EM dengan referensi historis yang menjelaskan hubungan antara HMM dan EM dalam jawaban saya.
NRH
0

Dalam HMM, kami mencoba memperkirakan terutama tiga parameter:

  1. KK

  2. K×K

  3. K×NN

Sekarang, bagian EM datang ketika Anda mencoba memperkirakan jumlah / parameter yang disebutkan di atas. Dimulai dengan beberapa tebakan acak, kemungkinan pengamatan dievaluasi dan parameter disesuaikan secara iteratif hingga kami mendapatkan kemungkinan maksimum. Jadi, melalui HMM, kami memodelkan beberapa proses dan untuk itu kami perlu memperkenalkan beberapa parameter. Untuk memperkirakan parameter, EM diberikan.

Ini jawaban yang sangat singkat. Menerapkan EM membutuhkan banyak sub-masalah lain untuk dipecahkan melalui serangkaian teknik. Untuk pemahaman mendalam, makalah tutorial klasik Rabiner sangat dianjurkan.

Riaz Khan
sumber