Kepadatan sebelumnya tidak informatif pada normal

9

Analisis Data Bayesian (hal. 64) mengatakan, mengenai model normal :

kepadatan sebelumnya yang masuk akal untuk dan , dengan asumsi independensi sebelumnya dari parameter lokasi dan skala, adalah seragam pada , atau, yang setara,μσ(μ,logσ)

p(μ,σ2)(σ2)1.

Mengapa seragam lebih dari setara dengan ?p(μ,logσ)p(μ,σ2)(σ2)1

Mengapa itu "masuk akal" sebelumnya?

Hatshepsut
sumber

Jawaban:

10

Biarkan sehingga Anda memiliki transformasi terbalik . Sekarang kita menerapkan aturan standar untuk transformasi variabel acak untuk mendapatkan:ϕ=log(σ)=12log(σ2)σ2=exp(2ϕ)

p(σ2)=p(ϕ)|dϕdσ2|112σ2(σ2)1.

Karena parameternya independen dalam hal ini sebelumnya, maka kami memiliki:

p(μ,σ2)=p(μ)p(σ2)(σ2)1.

Ini memberikan formulir yang dinyatakan untuk kepadatan sebelumnya yang tidak tepat. Adapun alasan mengapa alasan ini masuk akal, ada beberapa jalan banding. Pembenaran paling sederhana adalah bahwa kami ingin menggunakan dan agar seragam untuk mewakili "ketidaktahuan" tentang parameter-parameter ini. Mengambil logaritma varians adalah transformasi yang memastikan bahwa keyakinan kami tentang parameter tersebut adalah skala invarian . (Keyakinan kami tentang parameter rata-rata juga merupakan invarian lokasi dan skala.) Dengan kata lain, kami ingin representasi ketidaktahuan kami agar dua parameter tersebut menjadi invarian terhadap perubahan sewenang-wenang dalam skala pengukuran variabel.μlogσ

Untuk derivasi di atas, kami telah menggunakan seragam yang tidak tepat sebelum parameter log-variance. Dimungkinkan untuk mendapatkan hasil yang sama dalam arti terbatas, dengan menggunakan prior yang tepat untuk skala log yang cenderung ke arah keseragaman, dan menemukan prior yang tepat untuk varian yang sesuai dengan ini, dan kemudian mengambil batas untuk mendapatkan hadiah varian yang tidak benar sebelumnya. Ini benar-benar hanya cerminan dari fakta bahwa prior priors yang tidak tepat dapat diartikan sebagai batas prior priors.

Ada banyak pembenaran lain yang mungkin untuk prior yang tidak tepat ini, dan ini menarik bagi teori yang mewakili "ketidaktahuan" sebelumnya. Ada literatur besar tentang hal ini, tetapi diskusi yang lebih singkat dapat ditemukan di Irony dan Singpurwalla (1997) (diskusi dengan José Bernardo) yang berbicara tentang berbagai metode yang kami gunakan untuk mewakili "ketidaktahuan". Yang tidak patut sebelum Anda berurusan dengan di sini adalah versi pembatas dari konjugat sebelum untuk model normal, dengan varian sebelumnya untuk setiap parameter yang diambil hingga tak terbatas.

Ben - Pasang kembali Monica
sumber