Saya membaca tentang Jeffreys sebelum di wikipedia: Jeffreys Prior dan melihat bahwa setelah setiap contoh, ini menggambarkan bagaimana transformasi penstabilan varian mengubah Jeffrey sebelum menjadi seragam sebelumnya.
Sebagai contoh, untuk kasus Bernoulli, menyatakan bahwa untuk koin yang kepala dengan probabilitas , Bernoulli Model uji coba hasil bahwa Jeffreys sebelumnya untuk parameter adalah:
Kemudian menyatakan bahwa ini adalah distribusi beta dengan . Ini juga menyatakan bahwa jika, maka Jeffrey sebelum untukseragam dalam interval.
Saya mengenali transformasi sebagai transformasi penstabilan varian. Yang membingungkan saya adalah:
Mengapa transformasi penstabilan varians menghasilkan seragam sebelumnya?
Mengapa kita bahkan menginginkan seragam sebelumnya? (Karena tampaknya lebih rentan menjadi tidak pantas)
Secara umum, saya tidak begitu yakin mengapa transformasi kuadrat-sinus diberikan dan peran apa yang dimainkan. Adakah yang punya ide?
sumber
Jawaban:
The Jeffreys prior adalah invarian di bawah reparametrization. Karena alasan itu, banyak orang Bayesian menganggapnya sebagai “prior non-informatif”. (Hartigan menunjukkan bahwa ada seluruh ruang dari prior seperti untuk α + β = 1 di mana J adalah prior Jeffreys 'dan H adalah Hartigan yang sebelumnya merupakan invarian lokal asimptotik. - Invariant Prior Distributions )JαHβ α+β=1 J H
Ini adalah kepalsuan yang sering diulang bahwa seragam sebelumnya tidak informatif, tetapi setelah transformasi sewenang-wenang dari parameter Anda, dan seragam sebelum pada parameter baru berarti sesuatu yang sama sekali berbeda. Jika perubahan parametriisasi yang berubah-ubah memengaruhi prioritas Anda, maka prioritas Anda jelas informatif.
Menggunakan Jeffreys, menurut definisi , setara dengan menggunakan flat sebelum setelah menerapkan transformasi penstabil varian.
Dari sudut pandang matematika, menggunakan Jeffreys prior, dan menggunakan flat sebelum menerapkan transformasi variance-stable adalah setara. Dari sudut pandang manusia, yang terakhir mungkin lebih baik karena ruang parameter menjadi "homogen" dalam arti bahwa perbedaan semua sama di setiap arah di mana pun Anda berada di ruang parameter.
Pertimbangkan contoh Bernoulli Anda. Bukankah agak aneh bahwa skor 99% pada tes adalah jarak yang sama menjadi 90% karena 59% adalah 50%? Setelah transformasi penstabilan varians Anda, pasangan yang pertama lebih terpisah, sebagaimana seharusnya. Ini sesuai dengan intuisi kita tentang jarak aktual di luar angkasa. (Secara matematis, transformasi penstabilan varian membuat kelengkungan log-loss sama dengan matriks identitas.)
sumber
The Wikipedia Halaman yang Anda berikan tidak benar-benar menggunakan istilah "varians-menstabilkan transformasi". Istilah "transformasi penstabil varians" umumnya digunakan untuk menunjukkan transformasi yang membuat varians dari variabel acak menjadi konstan. Meskipun dalam kasus Bernoulli, inilah yang terjadi dengan transformasi, bukan itu yang menjadi tujuannya. Tujuannya adalah untuk mendapatkan distribusi yang seragam, dan bukan hanya varian yang menstabilkan.
Ingatlah bahwa salah satu tujuan utama menggunakan Jeffreys sebelumnya adalah bahwa ia tidak berubah. Ini berarti bahwa jika Anda men-parameterkan ulang variabel, prior tidak akan berubah.
1.
The Jeffreys sebelumnya dalam kasus Bernoulli ini, seperti yang Anda menunjukkan, adalah Beta . p γ ( γ ) ∝ 1( 1 / 2 , 1 / 2 )
Mengulangi dengan , kita dapat menemukan distribusi θ . Pertama mari kita lihat bahwa θ = arcsin ( √γ= dosa2( θ ) θ , dan sejak0<γ<1,0<θ<π/2. Ingatdosa2(x)+cos2(x)=1.
F θ ( x )θ = arcsin( γ--√) 0 < γ< 1 0 < θ < π/ 2 dosa2( x ) + cos2( x ) = 1
2.
sumber