Pertanyaannya didasarkan pada makalah berjudul: Rekonstruksi gambar dalam tomografi optik difus menggunakan model transport-difusi radiatif digabungkan
Penulis menerapkan EM algoritma dengan sparsity regularisasi vektor yang tidak diketahui untuk memperkirakan pixel dari suatu gambar. Model ini diberikan oleh μ
Dalam kasus saya, saya telah mempertimbangkan sebagai filter dengan panjang dan adalah vektor yang mewakili filter. Begitu,L μ L × 1
Model dapat ditulis ulang sebagai
Pertanyaan: Perumusan masalah: (n oleh 1) adalah input yang tidak teramati dan adalah mean nol dengan varians tidak diketahui noise tambahan. Solusi MLE akan didasarkan pada Ekspektasi Maksimalisasi (EM). { e ( n ) } σ 2 e
Dalam makalah Eq (19) adalah fungsi - log-likelihood lengkap tetapi untuk kasus saya, saya tidak mengerti bagaimana saya bisa memasukkan distribusi dalam ekspresi log-likelihood lengkap.
Apa yang akan menjadi log-likelihood lengkap menggunakan EM dari termasuk distribusi sebelumnya?
Jawaban:
Jika kita menganggap target sebagai representasi pada basis EM adalah untuk sembarang , karena dekomposisi atau yang bekerja untuk nilai arbitrer dari (karena tidak ada pada lhs ) dan karenanya juga berfungsi untuk setiap harapan dalam : log L ( θ | x ) = E [ log L ( θ | x , Z ) | x , θ ⁰ ] - E [ log q
sumber
Saya tidak berpikir menunjukkan peningkatan monoton log-posterior (atau log kemungkinan untuk MLE) cukup untuk menunjukkan konvergensi ke titik stasioner dari estimasi MAP (atau MLE). Misalnya, peningkatannya bisa menjadi kecil secara sewenang-wenang. Dalam makalah terkenal oleh Wu 1983 , kondisi yang cukup untuk konvergen ke titik stasioner EM adalah diferensiabilitas dalam kedua argumen fungsi batas bawah.
sumber