Saya sedang mempertimbangkan ruang besar (tetapi terbatas) model kompleksitas yang berbeda yang saya jelajahi menggunakan RJMCMC . Sebelumnya pada vektor parameter untuk setiap model cukup informatif.
Dalam kasus apa (jika ada) yang harus saya khawatirkan dengan paradoks Jeffreys-Lindley yang mendukung model yang lebih sederhana ketika salah satu model yang lebih kompleks akan lebih cocok?
Adakah contoh sederhana yang menyoroti masalah paradoks dalam pilihan model Bayesian?
Saya telah membaca beberapa artikel, yaitu blog Xi'an dan blog Andrew Gelman , tetapi saya masih belum mengerti masalahnya.
Jawaban:
Maaf karena tidak jelas di blog saya !
Catatan: Saya memberikan latar belakang tentang pilihan model Bayesian dan paradoks Jeffrey-Lindley dalam jawaban lain tentang Cross yang divalidasi.
Paradoks Jeffreys-Lindley terkait dengan pilihan model Bayesian dalam kemungkinan marginal menjadi tidak berarti ketika π adalah ukuran σ -finit (yaitu, ukuran dengan massa tak terbatas) daripada ukuran probabilitas. Alasan untuk kesulitan ini adalah bahwa massa tak hingga membuat π dan c π tidak dapat dibedakan untuk konstanta positif c . Secara khusus, faktor Bayes tidak dapat digunakan dan tidak boleh digunakan ketika satu model diberkahi dengan "flat" sebelumnya.
Sekarang, jika prior Anda informatif (dan karenanya tepat), tidak ada alasan untuk paradoks Jeffreys-Lindley terjadi. Dengan jumlah pengamatan yang cukup, faktor Bayes akan secara konsisten memilih model yang menghasilkan data. (Atau lebih tepatnya model dalam koleksi model dipertimbangkan untuk pilihan model yang paling dekat dengan model "benar" yang menghasilkan data.)
sumber