Pertanyaan tentang cara menggunakan EM untuk memperkirakan parameter model ini

8

Saya mencoba memahami EM dan mencoba menyimpulkan parameter model ini menggunakan teknik ini, tetapi saya mengalami kesulitan memahami bagaimana memulainya:

Jadi, saya memiliki model regresi linier tertimbang sebagai berikut di mana saya memiliki pengamatan dan pengamatan yang sesuai . Model hubungan antara X dan Y adalah model regresi linier tertimbang dan asumsi distribusi adalah sebagai berikut:X=(xi,x2....xn)Y=(y1,y2....yn)XY

yiN(βTxi,σ2wi)
βN(0,Σβ)
wiG(a,b)

Di sini β adalah parameter regresi dan model memungkinkan untuk varians yang tidak sama dengan memiliki variabel respon untuk memiliki bobot individu pada varians. Tujuan saya adalah menemukan hubungan linear yang paling mungkin diberikan oleh parameter β .

Jadi, saya sekarang dapat menulis log-posterior sebagai berikut:

logP(Y,β,w|X)=i=1n(logP(yi|xi,β,wi)+logP(wi))+logP(β)

Sekarang, saya telah mencoba untuk memahami EM dan tidak yakin bahwa pemahaman saya belum lengkap tetapi seperti yang saya mengerti, untuk mulai memperkirakan parameter, saya mulai dengan mengambil ekspektasi dari distribusi log-posterior logP(Y,β,w|X) sehubungan dengan parameter laten / tersembunyi yang dalam kasus saya adalah β dan w . Jadi nilai yang diharapkan ini diperlukan akan:

P(β,w|X)logP(Y,β,w|X)dwdβ

Namun, saya tidak tahu bagaimana melanjutkan dari sini untuk menghitung harapan ini. Sangat menghargai saran apa pun tentang langkah selanjutnya. Saya tidak mencari seseorang untuk mendapatkan saya semua hal yang diperlukan tetapi hanya dorongan ke arah yang benar pada apa yang harus saya cari untuk diselesaikan pada langkah selanjutnya.

Luca
sumber
Anda yakin EM seperti dalam Ekspektasi-Maksimalisasi berlaku untuk masalah Anda?
Xi'an
Aku pikir begitu. Saya mencoba memahami makalah dan mereka menggunakan EM untuk menyelesaikan masalah regresi linear bayesian tertimbang ini.
Luca
Variabel laten tidak boleh dan . Jika Anda tertarik pada , variabel laten mungkin adalah . Dalam hal ini Anda harus menemukan fungsi log-likelihood dari langkah-E dan mengoptimalkannya dalam pada langkah-M. βwiβwiQ(β|β0)β
Xi'an
Terima kasih atas komentar Anda. Jika saya dapat mencoba dan mengklarifikasi, makalah tersebut menyebutkan bahwa kami tertarik untuk memaksimalkan kemungkinan log tidak lengkap tetapi kami bekerja dengan kemungkinan data lengkap yang diberikan oleh: , yang bagi saya tampak seperti distribusi posterior dalam pengaturan ini. Jadi, saya berasumsi sedang diperlakukan sebagai bvariabel tersembunyi dalam pengaturan ini. logp(Y|X)logP(y,w,β|X)β
Luca
2
Berapa banyak yang sudah Anda ketahui tentang algoritma EM? Buku atau kertas mana yang telah Anda pelajari tentang hal itu? Mulai dari awal di forum seperti ini terdengar seperti ide yang buruk.
Xi'an

Jawaban:

3

Biarkan saya mengingat dasar-dasar algoritma EM terlebih dahulu. Ketika mencari estimasi kemungkinan maksimum dari kemungkinan bentuk algoritma tersebut melanjutkan dengan memaksimalkan secara berulang (M) yang diharapkan (E) kemungkinan log-likelihood lengkap, yang menghasilkan pemaksimalan (dalam ) pada iterasi fungsi Algoritma karena itu harus dimulai dengan mengidentifikasi variabel laten dan distribusi kondisionalnya.

f(x,z|β)dz,
βt
Q(β|βi)=logf(x,z|β)f(z|x,βt)dz
z

Dalam kasus Anda tampaknya variabel laten adalah dibuat dari sementara parameter yang menarik adalah . Jika Anda memproses dan sebagai variabel laten, tidak ada parameter yang tersisa untuk dioptimalkan. Namun, ini juga berarti bahwa sebelum tidak digunakan.ϖwiββϖβ

Jika kita melihat lebih tepat pada kasus , distribusi kondisionalnya diberikan oleh yang memenuhi syarat sebagai distribusi.wi

f(wi|xi,yi,β)wiexp{wi(yiβTxi)2/2σ2}×wia1exp{bwi}
G(a+1/2,b+(yiβTxi)2/2σ2)

Kemungkinan log yang selesai adalah bagian yang bergantung pada disederhanakan sebagai dan fungsi sebanding dengan Memaksimalkan fungsi ini dalam jumlah ke regresi linier tertimbang, dengan bobot

i12{log(wi)wi(yiβTxi)2/σ2}
β
iwi(yiβTxi)2/2σ2
Q(β|βt)
E[iwi(yiβTxi)2|X,Y,βt]=iE[wi|X,Y,βt](yiβTxi)2=ia+1/2b+(yiβtTxi)2/2σ2(yiβTxi)2
β
a+1/2b+(yiβtTxi)2/2σ2
Xi'an
sumber
Terima kasih untuk ini dan saya akan melalui ini dengan keras. Namun, pekerjaan ini yang saya lihat tidak memperlakukan sebagai variabel tersembunyi juga. Mereka menyebutkan bahwa mereka mengambil ekspektasi dengan bentuk perkiraan posterior mendekati sebagai . Jadi bagian ini membuat saya benar-benar bingung ...βQ(β,w)Q(w)Q(β)
Luca
1
Jika Anda memperlakukan dan sebagai variabel laten, tidak ada parameter yang tersisa ...βw
Xi'an
1
Mungkin yang mereka miliki adalah estimasi MAP dan bukan estimasi ML. Jika saya mencoba dan memformulasi ulang ini sebagai perkiraan MAP, saya menduga distribusi akan ikut berperan? β
Luca
1
Satu hal yang sangat cepat ... Saya tidak yakin apakah Anda melihat ini tetapi ketika Anda memiliki persamaan untuk kemungkinan log-lengkap, apakah istilah pertama bukan ? Juga, saya menebak istilah yang Anda tampilkan adalah kemungkinan log sebanding dengan konstanta. Saya selalu bingung dengan ini ketika barang digulung menjadi konstanta. log(wi)
Luca
1
koreksi yang dilakukan: Saya menempatkan di depan seluruh ekspresi. 1/2
Xi'an