Saya telah mempelajari sendiri Maksimalisasi Ekspektasi belakangan ini, dan mengambil sendiri beberapa contoh sederhana dalam proses:
Dari sini : Ada tiga koin , dan dengan , dan masing-masing probabilitas untuk mendarat di Head saat dilempar. Aduk . Jika hasilnya adalah Head, lempar tiga kali, atau lempar tiga kali. Data yang diamati dihasilkan oleh dan adalah seperti ini: HHH, TTT, HHH, TTT, HHH. Data tersembunyi adalah hasil . Perkirakan ,p 0 p 1 dan .
Dan dari sini : Ada dua koin dan dengan dan menjadi probabilitas masing-masing untuk mendarat di Head saat dilempar. Setiap putaran, pilih satu koin secara acak dan lemparkan sepuluh kali; catat hasilnya. Data yang diamati adalah hasil undian yang disediakan oleh dua koin ini. Namun, kita tidak tahu koin mana yang dipilih untuk babak tertentu. Perkirakan dan .
Meskipun saya bisa mendapatkan perhitungan, saya tidak bisa menghubungkan cara penyelesaiannya dengan teori EM asli. Secara khusus, selama Langkah-M dari kedua contoh, saya tidak melihat bagaimana mereka memaksimalkan apa pun. Sepertinya mereka menghitung ulang parameter dan entah bagaimana, parameter baru lebih baik daripada yang lama. Selain itu, kedua E-Step bahkan tidak terlihat mirip satu sama lain, belum lagi E-Step teori asli.
Jadi, bagaimana tepatnya contoh-contoh ini bekerja?
sumber
Jawaban:
(Jawaban ini menggunakan tautan kedua yang Anda berikan.)
Kami ingin menemukan penaksir kemungkinan maksimum . Algoritma Expectation-Maximization (EM) adalah salah satu metode untuk menemukan (setidaknya lokal) . Ia bekerja dengan menemukan ekspektasi bersyarat, yang kemudian digunakan untuk memaksimalkan . Idenya adalah bahwa dengan terus mencari lebih mungkin (yaitu lebih mungkin) di setiap iterasi kita akan terus meningkatkan yang pada gilirannya, meningkatkan fungsi kemungkinan. Ada tiga hal yang perlu dilakukan sebelum maju merancang algoritma berbasis EM. q qqPr[X,Z| θ]θ^ θ^ θ θ Pr[X,Z|θ]
Bangun Model
Sebelum kita melangkah lebih jauh dengan EM kita perlu mencari tahu apa sebenarnya yang kita komputasi. Pada langkah-E kita menghitung persis nilai yang diharapkan untuk . Jadi, apa nilai ini? Perhatikan bahwa Alasannya adalah karena kami memiliki 5 percobaan untuk diperhitungkan, dan kami tidak tahu koin apa yang digunakan di masing-masing. Ketidaksamaan ini disebabkan olehlog Pr [ X , Z | θ ]catatanPr [ X, Z| θ] catatan
Sekarang apa itu ? Ini adalah probabilitas bahwa kita melihat koin diberikan percobaan dan . Menggunakan probabilitas bersyarat yang kami miliki,C X i θ Pr [ Z i = C | X i , θ ] = Pr [ X i , Z i = C | θ ]Pr [ Zsaya= C| Xsaya, θ ] C Xsaya θ
Meskipun kami telah membuat beberapa kemajuan, kami belum selesai dengan modelnya. Berapa probabilitas bahwa koin yang diberikan membalik urutan ? Membiarkan Sekarang adalah jelas hanya probabilitas di bawah kedua kemungkinan atau . Karena kita miliki, h i = # kepala di X i Pr [ X i , Z i = C | θ ] = 1Xsaya hsaya= # kepala di Xsaya
Pr[Xi| θ]Zi=AZi=BPr[Zi=A]=Pr[Zi=B]=1/2
E-Step
Oke ... itu tidak terlalu menyenangkan tetapi kita dapat mulai melakukan beberapa pekerjaan EM sekarang. Algoritma EM dimulai dengan membuat beberapa tebakan acak untuk . Dalam contoh ini kita memiliki . Kami menghitung Nilai ini sejalan dengan apa yang ada di kertas. Sekarang kita dapat menghitung jumlah kepala yang diharapkan dalam dari koin , Melakukan hal yang sama untuk koin kita dapatkan, θ 0 = ( 0,6 , 0,5 ) Pr [ Z 1 = A | X 1 , θ ] = 1 / 2 ⋅ ( 0,6 5 ⋅ 0,4 5 )θ θ0=(0.6,0.5)
M-Step
Dengan nilai yang kami perkirakan, kini hadir langkah M di mana kami ingin memaksimalkan mengingat nilai yang kami harapkan. Ini dilakukan dengan normalisasi sederhana! Demikian juga untuk . Proses ini dimulai lagi dengan E-Step dan dan berlanjut sampai nilai-nilai untuk bertemu (atau ke beberapa ambang batas yang diijinkan). Dalam contoh ini kita memiliki 10 iterasi dan . Dalam setiap iterasi, nilai meningkat, karena perkiraan yang lebih baik dariθ
Sekarang dalam kasus ini modelnya cukup sederhana. Hal-hal dapat menjadi jauh lebih rumit dengan cukup cepat, namun algoritma EM akan selalu menyatu, dan akan selalu menghasilkan estimator kemungkinan maksimum maksimum . Mungkin merupakan penaksir lokal , tetapi untuk menyiasatinya kita bisa memulai kembali proses EM dengan inisialisasi yang berbeda. Kita dapat melakukan ini dalam jumlah yang konstan dan mempertahankan hasil terbaik (yaitu, mereka yang memiliki kemungkinan akhir tertinggi).θ^
sumber