Tentukan "koin memiliki probabilitas 1 untuk mendarat" Asumsikan bahwa seseorang memiliki kepercayaan sebelumnya: . Namun setelah melempar koin setelah mendaratkan ekor ( "koin mendaratkan ekor"). Bagaimana seharusnya seorang Bayesian memperbarui keyakinannya agar tetap koheren? tidak terdefinisi, karena P (E) = 0 . Namun, bagi saya tampaknya karena kepercayaannya sebelumnya sangat tidak masuk akal (tentu saja probabilitas 0 tidak berarti tidak mungkin) ia harus entah bagaimana dapat memperbarui keyakinannya menurut beberapa aturan.
Apakah ini hanya kasus patologis di mana pembaruan Bayesian tidak berfungsi atau saya tidak mengetahui solusi untuk masalah ini?
probability
bayesian
philosophical
Sebastian
sumber
sumber
Jawaban:
Setiap probabilitas posterior valid dalam kasus ini
Ini adalah pertanyaan yang menarik, yang masuk ke wilayah fondasi probabilitas. Ada beberapa pendekatan yang mungkin di sini, tetapi untuk alasan yang akan saya uraikan segera, pendekatan yang saya sukai adalah untuk memberikan definisi yang lebih luas tentang probabilitas kondisional yang analog dengan definisi ketika berurusan dengan variabel acak kontinu. (Perincian metode ini ditunjukkan di bawah ini.) Dalam kasus khusus ini, ini mengarah pada kesimpulan bahwa Bayesian dapat memiliki keyakinan posterior tentang , dan ini menghasilkan seperangkat keyakinan yang koheren (meskipun mereka telah mengamati suatu peristiwa yang mereka yakini memiliki probabilitas nol).X
Keuntungan dari pendekatan ini adalah memberikan distribusi posterior yang terdefinisi dengan baik, dan memungkinkan Bayesian untuk memperbarui keyakinan mereka tergantung pada pengamatan suatu peristiwa yang ditetapkan terjadi dengan probabilitas nol. Posterior pada dasarnya diperbarui secara sewenang-wenang (setiap probabilitas posterior sama-sama koheren), tetapi fleksibilitas itu tidak mengejutkan mengingat apa yang telah terjadi. Dalam hal ini, orang Bayesia yang berbeda dengan kepercayaan sebelumnya yang sama dapat secara sah sampai pada kesimpulan posterior yang berbeda, karena fakta bahwa mereka semua telah mengamati suatu peristiwa dengan probabilitas nol apriori .
Probabilitas bersyarat untuk variabel acak kontinu: Ketika kita berurusan dengan variabel acak kontinu, fungsi probabilitas bersyarat didefinisikan melalui turunan Radon-Nikodym , dan pada dasarnya hanya membutuhkan fungsi untuk memenuhi hukum probabilitas gabungan. Jika dan adalah variabel acak kontinu (bukan peristiwa diskrit) dalam ruang probabilitas maka kita akan mendefinisikan fungsi probabilitas bersyarat sebagai setiap pengukuran non-negatif yang dapat diukur. fungsi yang memenuhi persamaan integral:X E (Ω,G,P) p(x|e)
Karena juga didefinisikan melalui turunan Radon-Nikodym, ini secara implisit berarti bahwa dapat berupa fungsi terukur non-negatif yang memenuhi persamaan integral:p(x) p(x|e)
Ini memberikan solusi non-unik untuk fungsi probabilitas bersyarat, meskipun dalam praktiknya, setiap solusi "hampir pasti" setara (yaitu, mereka berbeda hanya pada serangkaian hasil dengan probabilitas nol) sehingga tidak ada masalah dengan non-keunikan. .
Menentukan probabilitas kondisional untuk kejadian diskrit: Definisi standar untuk probabilitas kondisional untuk kejadian diskrit adalah rumus rasio yang terkenal, di mana penyebutnya adalah probabilitas kejadian pengkondisian. Jelas, dalam kasus di mana peristiwa pengkondisian memiliki probabilitas nol, objek ini tidak terdefinisi. Solusi yang jelas di sini adalah memperluas definisi dengan cara yang analog dengan metode yang digunakan dalam kasus kontinu. Yaitu, kita mendefinisikan pasangan probabilitas bersyarat dan sebagai pasangan nilai antara nol dan satu yang memenuhi persamaan:P(X|E) P(X|E¯)
Dalam kasus yang ditentukan dalam pertanyaan, kami memiliki keyakinan sebelumnya dan distribusi sampling , yang mengarah ke . Mengganti nilai-nilai ini ke dalam persamaan di atas memberi:P(X)=1 P(E|X)=0 P(E)=0
Kita dapat melihat bahwa persamaan ini puas dengan mengambil dan . Dengan demikian, probabilitas bersyarat (posterior) dapat secara koheren merupakan nilai antara nol dan satu. Ketika kami mengatakan bahwa ini adalah "koheren", kami hanya berarti bahwa probabilitas posterior tidak konsisten dengan probabilitas lain yang ditetapkan dalam masalah (yaitu, probabilitas sebelum dan pengambilan sampel).P(X|E¯)=1 0⩽P(X|E)⩽1 P(X|E)
Mengapa pendekatan ini paling masuk akal: Sangat mungkin bahwa analisis Bayesian dapat melibatkan pengamatan peristiwa diskrit yang memiliki probabilitas nol yang ditetapkan dalam distribusi sebelumnya. Sebagai contoh, dalam model standar pembalikan koin, kami menetapkan distribusi Bernoulli untuk hasil kepala / ekor, tetapi ada kemungkinan bahwa koin dapat bertumpu pada ujungnya (sehingga tidak menjadi kepala atau ekor). Otak tidak boleh meledak dalam kasus ini, dan karena itu berkenaan dengan alasan Bayesian untuk memiliki cara yang jelas untuk melanjutkan dalam kasus ini.
Keuntungan utama dari pendekatan yang saya uraikan adalah selalu mengarah pada setidaknya satu nilai yang diijinkan untuk probabilitas posterior (yaitu, probabilitas posterior didefinisikan dengan baik ). Probabilitas posterior tidak didefinisikan secara unik, tetapi itu adalah cabang alami dari fakta bahwa ada beberapa nilai yang sama-sama koheren dengan pengamatan sampling probabilitas nol. Pendekatan ini berarti bahwa Bayesian bebas untuk menentukan probabilitas posterior, dan ini sama koheren dengan yang lain. (Ingatlah bahwa ketika kita mengatakan "koheren" di sini, kita berbicara tentang koherensi dengan keyakinan sebelumnya yang menetapkan probabilitas nol untuk peristiwa diskrit yang benar-benar terjadi, sehingga koherensi dengan itu bukan bar yang tinggi!)
Ada manfaat besar lain untuk pendekatan ini , yaitu memungkinkan Bayesian untuk memperbarui keyakinannya dalam menanggapi mengamati suatu peristiwa yang memiliki kemungkinan pengambilan sampel nol di bawah sebelumnya, dan khususnya, Bayesian sekarang dapat merevisi keyakinannya. sehingga mereka tidak lagi menganggap nol probabilitas untuk acara ini . Dalam contoh yang Anda berikan, Bayesian sebelumnya memiliki keyakinan bahwa benar hampir pasti, beli kemudian amati suatu peristiwa dengan probabilitas sampling nol yang tergantung pada peristiwa ini. Sekarang Bayesian bebas untuk memperbarui keyakinannya ke probabilitas posterior untuk yang tidak satu (dan probabilitas posterior yang sesuai untukX X X¯ itu bukan nol). Jadi, pada intinya, orang Bayesian sekarang dapat mengatakan, "Oh, sial! Itu tadi konyol! Biarkan saya memperbarui kepercayaan saya pada peristiwa itu sehingga tidak lagi terjadi hampir pasti! Selain itu, ini bukan perubahan ad hoc , tetapi pembaruan "koheren" yang sah dilakukan di bawah teorema Bayes.
sumber
Ada asumsi implisit dalam semua alasan, Bayesian atau yang lain, bahwa kita tahu segala sesuatu yang bisa terjadi dan dipertanggungjawabkan. Jika sesuatu terjadi yang tidak mungkin di bawah model, itu hanya berarti bahwa anggapan itu salah. Hal utama yang harus dilakukan adalah kembali dan memperluas model, dan memulai kembali. Setidaknya dalam kerangka Bayesian, proses ini relatif mudah untuk diformalkan - alih-alih inferensi dalam model tunggal, orang akan melakukan inferensi dalam serangkaian model.
Pada titik tertentu, kemampuan manusia kita untuk membuat model dalam model harus habis. Bahkan dengan bantuan otomatis (yaitu komputer atau apa pun), harus ada batas atas kompleksitas "ibu dari semua model". Saya tidak tahu apa yang harus dilakukan dalam keadaan itu, tetapi kami tentu sangat jauh dari itu, ketika kami bekerja dengan model parametrik khas yang ditemukan dalam aplikasi.
sumber
Ini terkait dengan bidang logika. khususnya, pernyataan salah menyiratkan semua pernyataan lainnya, benar atau salah. Dalam skenario Anda adalah pernyataan yang salah. Ini berarti kita dapat menulis untuk setiap proposisi . Sebagai contoh, kita memiliki (itu menyiratkan ekor) dan juga (itu menyiratkan bukan ekor juga)!X X⟹S S X⟹E X⟹Ec
Ini juga konsisten dengan solusi Ben (atur posterior ke nilai apa pun yang Anda inginkan). Jelas ini tidak terlalu berguna dalam aplikasi. Karena saya cukup yakin tidak memerlukan kerangka matematika untuk mengarang hasil apa pun yang saya inginkan.
Apa artinya, adalah bahwa seseorang tidak boleh memasukkan pernyataan palsu yang diketahui ke dalam probabilitas sebelumnya. Ini sama saja dengan orang seharusnya tidak menggunakan pernyataan palsu tentang data. Dalam hal menangani masalah "angsa hitam", kita dapat menangani hal ini secara konseptual dengan menetapkan beberapa peluang kecil, tetapi bukan nol bahwa "asumsi kerja" kita salah. Jika Anda menyebut pernyataan ini sebagai "asumsi kerja saya sudah benar", dan tetapkan itu sebelumnya sama dengan . Ada beberapa situasi mustahil di bawah asumsi kerja, yang berarti bahwa kemungkinan untuk beberapa nilai "data" yang ada di wilayah "mustahil"Aw p(Aw)=1−ϵ p(d∈Dimpossible|Aw)=0 d Dimpossible ketika asumsi kerja berlaku. Sebut acara ini . Ini juga berarti bahwa . Kami berasumsi bahwa (yaitu "tidak mungkin" data mungkin jika asumsi kerja salah). Dan akhirnya .Q:=d∈Dimpossible p(Qc|Aw)=1−p(Q|Aw)=1 p(Q|Acw)=δ>0 p(Qc|Acw)=1−p(Q|Acw)=1−δ
Sekarang kami memiliki dua skenario. Yang pertama adalah bahwa datanya "normal" (artinya benar)Qc
Yang kedua adalah bahwa data itu "tidak mungkin" (artinya benar)Q
Sekarang mudah-mudahan ini dengan sangat jelas menunjukkan bahwa jika asumsi Anda terpenuhi, dan Anda sudah memiliki probabilitas sebelumnya yang sangat tinggi, posterior setidaknya sama tinggi (dan seringkali lebih tinggi). Jadi nilai apa pun untuk Anda gunakan untuk mewakili "pada dasarnya tidak mungkin" sebelum melihat data, Anda harus menggunakan nilai yang lebih kecil setelah melihat prediksi dikonfirmasi.ϵ
Saat melakukan perhitungan, dengan asumsi tidak akan menyesatkan Anda. Jadi Anda "menyerap" ke dalam informasi sebelumnyap(Aw|Qc)=1 Aw,Qc
Sekarang, bagaimana bila hal yang mustahil terjadi? Kalau begitu Anda perlu membongkar dan mengubah kemungkinan Anda dan sebelum sesuai dengan apa yang salah dengan asumsi Anda.
sumber