Di halaman wiki mereka , pengembang status Stan:
Beberapa prinsip yang tidak kita sukai: invarian, Jeffreys, entropi
Sebagai gantinya, saya melihat banyak rekomendasi distribusi normal. Sejauh ini saya menggunakan metode Bayesian yang tidak bergantung pada pengambilan sampel, dan agak senang telah memahami mengapa adalah pilihan yang baik untuk kemungkinan binomial.
Jawaban:
Ini tentu saja merupakan kumpulan orang yang beragam dengan berbagai pendapat yang berkumpul dan menulis wiki. Saya meringkas saya tahu / mengerti dengan beberapa komentar:
Memilih prioritas Anda berdasarkan kenyamanan komputasi adalah alasan yang tidak memadai. Misalnya menggunakan Beta (1/2, 1/2) semata-mata karena memungkinkan pembaruan konjugat bukan ide yang baik. Tentu saja, setelah Anda menyimpulkan bahwa ia memiliki sifat yang baik untuk jenis masalah yang Anda kerjakan, itu bagus dan Anda mungkin juga membuat pilihan yang membuat implementasi mudah. Ada banyak contoh, di mana pilihan standar yang nyaman ternyata bermasalah (lihat Gamna (0,001, 0,001) sebelumnya yang memungkinkan pengambilan sampel Gibbs).
Dengan Stan - tidak seperti WinBUGS atau JAGS - tidak ada keuntungan khusus untuk (konjugasi) prior. Jadi Anda mungkin mengabaikan aspek komputasi. Tidak sepenuhnya, karena dengan prior tail yang sangat berat (atau prior yang tidak tepat) dan data yang tidak mengidentifikasi parameter dengan baik, Anda mengalami masalah (bukan benar-benar masalah Stan spesifik, tetapi Stan cukup baik dalam mengidentifikasi masalah ini dan memperingatkan pengguna bukannya dengan senang hati mengambil sampel).
Jeffreys dan data "informasi rendah" lainnya kadang-kadang bisa tidak tepat atau agak terlalu sulit dimengerti dalam dimensi tinggi (apalagi untuk menurunkannya) dan dengan data yang jarang. Mungkin saja ini menyebabkan masalah terlalu sering bagi penulis untuk tidak pernah merasa nyaman dengan mereka. Setelah Anda mengerjakan sesuatu yang Anda pelajari lebih banyak dan merasa nyaman, maka pembalikan pendapat sesekali.
Dalam pengaturan data yang jarang, yang sebelumnya benar-benar penting dan jika Anda dapat menentukan bahwa nilai yang benar-benar tidak masuk akal untuk suatu parameter tidak masuk akal, ini sangat membantu. Ini memotivasi gagasan tentang informasi yang kurang informatif - bukan informasi yang benar-benar sepenuhnya informatif, tetapi yang dengan dukungan paling besar untuk nilai-nilai yang masuk akal.
Bahkan, Anda bisa bertanya-tanya mengapa orang mengganggu dengan informasi yang tidak informatif, jika kami memiliki banyak data yang mengidentifikasi parameter dengan sangat baik (orang hanya dapat menggunakan kemungkinan maksimum). Tentu saja, ada banyak alasan (menghindari patologi, mendapatkan "bentuk nyata" dari posterior dll), tetapi dalam situasi "banyak data" tampaknya tidak ada argumen nyata terhadap prior informasi yang lemah sebagai gantinya.
sumber
Mereka tidak memberikan pembenaran ilmiah / matematis untuk melakukan hal itu. Sebagian besar pengembang tidak bekerja pada jenis prior, dan mereka lebih suka menggunakan prior pragmatis / heuristik, seperti prior normal dengan varian besar (yang mungkin informatif dalam beberapa kasus). Namun, agak aneh bahwa mereka senang menggunakan prior PC, yang didasarkan pada Entropy (KL divergence), setelah mereka mulai mengerjakan topik ini.
sumber