Pertanyaan yang sangat bagus! Memang masuk akal bahwa distribusi sebelumnya "baik" memberikan probabilitas positif atau nilai kerapatan positif ke parameter "benar" , tetapi dari perspektif keputusan murni ini tidak harus menjadi kasus. Contoh tandingan sederhana untuk "intuisi" ini bahwa harus diperlukan, ketika adalah densitas sebelumnya dan adalah nilai parameter "true" dari parameter, adalah brilian hasil minimaxity dari Casella dan Strawderman (1981): ketika memperkirakan rata-rata Normal berdasarkan pada pengamatan tunggal dengan kendala tambahan yaitu , π ( θ 0 ) > 0 π ( ⋅ ) θ 0 μ x ∼ N ( μ , 1 ) | μ | < ρ ρ ρ ≤ 1.0567 { - ρ , ρ } π - ρ ρ μ π ( θ ) = 1θ0
π( θ0) > 0
π( ⋅ )θ0μx ∼ N( μ , 1 )| μ | <ρρcukup kecil, secara khusus, penaksir minimax sesuai dengan seragam (paling tidak menguntungkan) sebelum , yang berarti bahwa memberikan bobot yang sama dengan dan ( dan tidak ada nilai lain dari mean )
Ketika meningkatkan yang paling tidak menguntungkan sebelum melihat dukungannya tumbuh, tetapi tetap memiliki nilai yang terbatas. Namun harapan posterior, , dapat mengambil nilai apa pun pada .
ρ ≤ 1.0567{ - ρ , ρ }π- ρρμρE[μ| x](-ρ,ρ)π( θ ) = 12δ- ρ( Θ ) + 12δρ( θ )
ρE [μ | x]( - ρ , ρ )
Inti dari diskusi (lihat komentar) mungkin adalah, jika estimator Bayes dibatasi untuk menjadi titik dalam dukungan
, propertinya akan sangat berbeda.π( ⋅ )
Demikian pula, ketika mempertimbangkan penaksir yang dapat diterima, penaksir Bayes yang terkait dengan tepat sebelum suatu perangkat kompak biasanya dapat diterima, meskipun mereka memiliki dukungan terbatas.
Dalam kedua kasus, gagasan frequentist (minimaxity atau diterimanya) didefinisikan atas rentang parameter yang mungkin daripada pada nilai "true" dari parameter (yang membawa jawaban untuk Pertanyaan 4.) Misalnya, melihat risiko posterior
atau beresiko Bayes
tidak melibatkan nilai sebenarnya . ∫ X ∫ Θ L(θ,δ)π(θ)f(x | θ)dθdx θ 0
∫ΘL ( θ , δ) π( θ| x ) d θ
∫X∫ΘL ( θ , δ) π( θ ) f( x | θ ) d θ d x
θ0
Selanjutnya, sebagaimana ditunjukkan dalam contoh di atas, ketika estimator Bayes didefinisikan oleh ekspresi formal seperti mean posterior
untuk kerugian kuadratik (atau ), penaksir ini dapat mengambil nilai di luar dukungan dalam kasus dukungan ini tidak cembung.L2π
θ^π( x ) = ∫Θθ π( θ | x ) d θ
L.2π
Sebagai tambahan, saat membaca
agar θ benar telah menghasilkan data (yaitu "ada"), θ harus merupakan variasi yang mungkin di bawah π, misalnya memiliki probabilitas bukan nol, kerapatan bukan nol
Saya menganggapnya sebagai penyajian yang keliru dari makna prior. Distribusi sebelumnya tidak dimaksudkan untuk mekanisme fisik (atau nyata) aktual yang melihat nilai parameter dihasilkan dari diikuti oleh pengamatan dihasilkan dari . Prior adalah ukuran referensi pada ruang parameter yang menggabungkan informasi sebelumnya dan keyakinan subyektif tentang parameter dan itu sama sekali tidak unik. Analisis Bayesian selalu relatif terhadap analisis yang sebelumnya dipilih untuk melakukan analisis Bayesian ini. Oleh karena itu, tidak ada keharusan mutlak untuk parameter yang benar untuk menjadi milik dukungan dari . Jelas, ketika dukungan ini adalah perangkat terkoneksi yang kompak, π x f ( x | θ 0 ) π A A θ πθ0πxf( x | θ0)πSEBUAH, nilai parameter apa pun di luar set tidak dapat secara konsisten diestimasi oleh rata-rata posterior tetapi ini bahkan tidak mencegah penaksir diterima.SEBUAHθ^π
Jika posterior Anda "ditumpuk" di satu sisi domain sebelumnya, dan sebelumnya Anda memaksakan pembatasan yang tidak perlu pada domain di tepi yang sama, ini adalah indikator ad-hoc bahwa pembatasan yang tidak perlu mungkin menyebabkan Anda bermasalah. Tetapi ini hanya akan terjadi jika a) Anda telah membuat prior yang bentuknya sebagian besar didorong oleh kenyamanan daripada pengetahuan sebelumnya, dan b) bentuk yang diinduksi kenyamanan dari sebelumnya membatasi domain parameter ke subset dari apa yang " domain alami "dapat dianggap.
Contohnya adalah praktik lama, semoga lama usang, yang mengikat sebelumnya pada istilah varians sedikit jauh dari nol untuk menghindari kemungkinan kesulitan komputasi. Jika nilai sebenarnya dari varians adalah antara terikat dan nol, well ... tetapi sebenarnya berpikir tentang nilai-nilai potensial dari varians yang diberikan data, atau (misalnya) menempatkan prior pada log varians sebagai gantinya, akan memungkinkan Anda menghindari masalah ini, dan kepandaian ringan serupa harus memungkinkan Anda untuk menghindari prior yang membatasi domain pada umumnya.
sumber
sumber