Kemungkinan vs distribusi bersyarat untuk analisis Bayesian

12

Kita dapat menulis teorema Bayes sebagai

hal(θ|x)=f(X|θ)hal(θ)θf(X|θ)hal(θ)dθ

di mana hal(θ|x) adalah posterior, f(X|θ) adalah distribusi bersyarat, dan hal(θ) adalah yang sebelumnya.

atau

hal(θ|x)=L.(θ|x)hal(θ)θL.(θ|x)hal(θ)dθ

di mana hal(θ|x) adalah posterior, L.(θ|x) adalah fungsi kemungkinan, dan hal(θ) adalah yang sebelumnya.

Pertanyaanku adalah

  1. Mengapa analisis Bayesian dilakukan menggunakan fungsi kemungkinan dan bukan distribusi kondisional?
  2. Dapatkah Anda mengatakan dengan kata-kata apa perbedaan antara kemungkinan dan distribusi kondisional? Saya tahu kemungkinannya bukan distribusi probabilitas dan L.(θ|x)f(X|θ) .
kzoo
sumber
1
Tidak ada perbedaan! Kemungkinannya adalah distribusi bersyarat , yah, sebanding dengan, yang terpenting. f(X|θ)
kjetil b halvorsen
1
Parameter sebelumnya memiliki kerapatan p Θ ( θ ) . jika realisasi Θ memiliki nilai θ sedangkan x adalah nilai yang diamati dari variabel acak X , maka nilai fungsi kemungkinan L ( θ x ) adalah tepat f ( x θ ) , nilai kepadatan bersyarat f X Θ ( x Θ = θ ) dari XΘhalΘ(θ)ΘθxXL.(θx) f(xθ)fXΘ(xΘ=θ)X. Perbedaannya adalah bahwa untuk semua realisasi Θ . Namun, sebagai fungsi dari θ (dan tetap x ), L ( θ | x ) adalah tidak kepadatan: L ( θ | x ) d θ 1
-fXΘ(xΘ=θ)dx=1
ΘθxL.(θx)
L.(θx)dθ1
Dilip Sarwate

Jawaban:

10

Misalkan Anda memiliki variabel acak (yang nilainya akan diamati dalam percobaan Anda) yang independen secara kondisional, mengingat bahwa Θ = θ , dengan kepadatan bersyarat f X iΘ (X1,...,XnΘ=θ , untuk i = 1 , , n . Ini adalah Anda (mendalilkan) statistik (bersyarat) model, dan kepadatan bersyarat mengungkapkan, untuk setiap kemungkinan nilai θ dari (random) parameter Θ , ketidakpastian tentang nilai-nilai dari X i 's,sebelumAnda memiliki akses ke nyata data. Dengan bantuan kepadatan bersyarat Anda dapat, misalnya, menghitung probabilitas bersyarat seperti P { X 1B 1 , , X nB nfXsayaΘ(θ)saya=1,...,nθΘXsaya untuk masing-masing θ .

P{X1B1,...,XnBnΘ=θ}=B1××Bnsaya=1nfXsayaΘ(xsayaθ)dx1...dxn,
θ

Setelah Anda memiliki akses ke sampel yang sebenarnya nilai (realisasi) dari X i 's yang telah diamati dalam satu kali percobaan Anda, situasi berubah: tidak ada ketidakpastian lagi tentang diamati X 1 , ... , X n . Misalkan Θ acakmengasumsikan nilai dalam beberapa ruang parameter Π . Sekarang, Anda mendefinisikan, untuk nilai-nilai yang diketahui (tetap) ( x 1 , ... , x n ) fungsi L(x1,...,xn)XsayaX1,...,XnΘΠ(x1,...,xn)

L.x1,...,xn:ΠR
oleh Perhatikan bahwa L x 1
L.x1,...,xn(θ)=saya=1nfXsayaΘ(xsayaθ).
, yang dikenal sebagai "fungsi kemungkinan" adalah fungsi dariθ. Dalam situasi "setelah Anda memiliki data" ini, kemungkinan L x 1 , ... , x n berisi, untuk model kondisional tertentu yang kami pertimbangkan, semua informasi tentang parameterΘ yangterkandung dalam sampel khusus ini( x 1 ,..., x n ). Bahkan, kebetulan bahwa L x 1 , ... ,L.x1,...,xnθL.x1,...,xnΘ(x1,...,xn) adalah statistik yang cukup untukΘ.L.x1,...,xnΘ

Menjawab pertanyaan Anda, untuk memahami perbedaan antara konsep kepadatan bersyarat dan kemungkinan, perhatikan definisi matematisnya (yang jelas berbeda: mereka adalah objek matematika yang berbeda, dengan sifat yang berbeda), dan juga ingat bahwa kepadatan bersyarat merupakan "pra -contoh "objek / konsep, sedangkan kemungkinannya adalah" after-sample ". Saya harap semua ini juga membantu Anda menjawab mengapa inferensi Bayesian (menggunakan cara Anda mengatakannya, yang menurut saya tidak ideal) dilakukan "menggunakan fungsi kemungkinan dan bukan distribusi kondisional": tujuan inferensi Bayesian adalah untuk menghitung distribusi posterior, dan untuk itu kami mengkondisikan pada data yang diamati (diketahui).

Zen
sumber
Saya pikir Zen benar ketika dia mengatakan bahwa kemungkinan dan kemungkinan bersyarat berbeda. Dalam fungsi kemungkinan θ bukan variabel acak, sehingga berbeda dari probabilitas bersyarat.
Martine
1

Proporsionalitas digunakan untuk menyederhanakan analisis

f(X|θ)

hal(θ|x)L.x(θ)hal(θ)L.x(θ)saya=1nf(xsaya|θ).

θ

θ

Contoh yang diterapkan: Pertimbangkan model IID dengan data yang diamati X1,...,XnIID N(θ,1)x¯=1nsaya=1nxsayax¯¯=1nsaya=1nxsaya2

f(x|θ)=saya=1nf(xsaya|θ)=saya=1nN(xsaya|θ,1)=saya=1n12πexp(-12(xsaya-θ)2)=(2π)n/2exp(-12saya=1n(xsaya-θ)2).=(2π)n/2exp(-n2(θ2-2x¯θ+x¯¯))=(2π)n/2exp(-nx¯¯2)exp(-n2(θ2-2x¯θ))

θ

L.x(θ)=exp(-n2(θ2-2x¯θ)).

θθN(0,λ0)λ0>0

hal(θ|x)L.x(θ)hal(θ)=exp(-n2(θ2-2x¯θ))N(θ|0,λ0)exp(-n2(θ2-2x¯θ))exp(-λ02θ2)=exp(-12(nθ2-2nx¯θ+λ0θ2))=exp(-12((n+λ0)θ2-2nx¯θ))=exp(-n+λ02(θ2-2nx¯n+λ0θ))exp(-n+λ02(θ-nn+λ0x¯)2)N(θ|nn+λ0x¯,n+λ0).

Jadi, dari kerja ini kita dapat melihat bahwa distribusi posterior sebanding dengan kepadatan normal. Sejak posterior harus menjadi kepadatan, ini menyiratkan bahwa posterior adalah bahwa densitas normal:

hal(θ|x)=N(θ|nn+λ0x¯,n+λ0).

θ

E(θ|x)=nn+λ0x¯V(θ|x)=1n+λ0.

Sekarang, distribusi posterior yang kita dapatkan memiliki konstanta integrasi di depannya (yang dapat kita temukan dengan mudah dengan melihat bentuk distribusi normal ). Tetapi perhatikan bahwa kita tidak perlu khawatir tentang konstanta multiplikasi ini - semua kerja kita menghilangkan (atau membawa) konstanta multiplikasi kapan pun ini menyederhanakan matematika. Hasil yang sama dapat diturunkan sambil melacak konstanta multiplikasi, tetapi ini jauh lebih berantakan.

Ben - Pasang kembali Monica
sumber
0

Saya pikir jawaban Zen benar-benar memberi tahu Anda bagaimana secara konseptual fungsi kemungkinan dan densitas gabungan dari nilai-nilai variabel acak berbeda. Secara matematis sebagai fungsi dari kedua xsaya

Masalah ini telah muncul dalam pertanyaan lain yang dibahas di situs ini mengenai fungsi kemungkinan. Juga komentar lain oleh kjetil dan Dilip tampaknya mendukung apa yang saya katakan.

Michael R. Chernick
sumber