Saya mengalami kesulitan dalam memahami situasi di mana pendekatan MCMC sebenarnya berguna. Saya akan melalui contoh mainan dari buku Kruschke "Melakukan Analisis Data Bayesian: Tutorial dengan R dan BUGS".
Apa yang saya pahami sejauh ini adalah bahwa kita memerlukan target distribusi yang proporsional dengan untuk memiliki sampel . Namun, bagi saya, sekali kita memiliki kita hanya perlu menormalkan distribusi untuk mendapatkan posterior, dan faktor normalisasi dapat dengan mudah ditemukan secara numerik. Jadi apa kasusnya saat ini tidak memungkinkan?P ( θ | D ) p ( D | θ ) p ( θ )
Jawaban:
Integrasi Monte Carlo adalah salah satu bentuk integrasi numerik yang dapat jauh lebih efisien daripada, misalnya, integrasi numerik dengan mendekati integrand dengan polinomial. Ini terutama benar dalam dimensi tinggi, di mana teknik integrasi numerik sederhana memerlukan evaluasi fungsi dalam jumlah besar. Untuk menghitung konstanta normalisasi , kita dapat menggunakan sampel penting ,p(D)
di mana dan disampel dari . Perhatikan bahwa kita hanya perlu mengevaluasi distribusi bersama pada titik sampel. Untuk tepat , penaksir ini bisa sangat efisien dalam arti membutuhkan sangat sedikit sampel. Dalam praktiknya, memilih tepat bisa sulit, tetapi di sinilah MCMC dapat membantu! Anil pentingnya sampel (Neal, 1998) menggabungkan MCMC dengan sampel pentingθ n q q qwn=1/q(θn) θn q q q
Alasan lain mengapa MCMC berguna adalah ini: Kami biasanya bahkan tidak tertarik pada kepadatan posterior , tetapi lebih pada ringkasan statistik dan harapan , misalnya,θ
Mengetahui secara umum tidak berarti kita dapat menyelesaikan integral ini, tetapi sampel adalah cara yang sangat mudah untuk memperkirakannya.p(D)
Akhirnya, mampu mengevaluasi adalah persyaratan untuk beberapa metode MCMC, tetapi tidak semuanya (misalnya, Murray et al., 2006 ).p(D∣θ)p(θ)
sumber
Ketika Anda diberi sebelumnya dan kemungkinan yang tidak dapat dihitung dalam bentuk tertutup atau sedemikian rupa sehingga distribusi posterior bukan tipe standar, mensimulasikan langsung dari target ini menuju perkiraan Monte Carlo dari distribusi posterior tidak layak. Contoh khas dibuat dari model hierarkis dengan prior non-konjugat, seperti yang ditemukan dalam buku BUGS .p(θ) f(x|θ)
Metode simulasi tidak langsung seperti teknik accept-reject, rasio-of-seragam, atau kepentingan-sampel biasanya mengalami kesulitan numerik dan presisi ketika dimensi parameter meningkat melampaui beberapa unit.θ
Sebaliknya, metode rantai Markov, Monte Carlo, lebih dapat digunakan untuk dimensi besar karena mereka dapat menjelajahi distribusi posterior berbasis lokal, yaitu di lingkungan nilai saat ini, dan pada sejumlah kecil komponen, yaitu pada subruang. Sebagai contoh, sampler Gibbs memvalidasi gagasan yang mensimulasikan dari target satu dimensi pada suatu waktu, yaitu distribusi bersyarat penuh yang terkait dengan , cukup untuk mencapai simulasi dari posterior sebenarnya dalam jangka panjang.p(θ|x)
Metode rantai Markov Monte Carlo juga beberapa tingkat universalitas dalam algoritma seperti algoritma Metropolis-Hastings secara resmi tersedia untuk setiap distribusi posterior yang dapat dihitung hingga konstanta.p(θ|x)
Dalam kasus ketika tidak dapat dengan mudah dihitung, ada alternatif, baik dengan melengkapi distribusi ini menjadi distribusi yang dapat dikelola di ruang yang lebih besar, seperti dalam atau melalui metode non-Markovian seperti ABC .p ( θ ) f ( x | θ ) ∝ ∫ g ( z | θ , x ) p ( θ ) f ( x | θ ) d zp(θ)f(x|θ)
Metode MCMC telah memberikan jangkauan yang lebih luas untuk metode Bayesian, seperti yang diilustrasikan oleh kenaikan yang mengikuti popularisasi metode oleh Alan Gelfand dan Adrian Smith pada tahun 1990.
sumber