Kemungkinan vs Probabilitas

8

Saya mengalami kesulitan dengan Kemungkinan . Saya mengerti Teorema Bayes

p(A|B,H)=p(B|A,H)p(A|H)p(B|H)

yang dapat disimpulkan secara langsung dari penerapan . Jadi dalam interpretasi saya, fungsi dalam Bayes Theorem entah bagaimana semuanya kemungkinan, baik marjinal atau bersyarat. Jadi saya benar-benar berpikir bahwa kemungkinan sebagai konsep lebih merupakan pandangan sering dari probabilitas terbalik.p(A,B)=p(B)p(A|B)=p(A)p(B|A)=p(B,A)p()

Namun, saya sekarang telah berulang kali melihat pernyataan dalam buku-buku Bayesianis yang mengatakan bahwa kemungkinan itu bukan distribusi probabilitas. Membaca buku MacKay kemarin, saya menemukan pernyataan berikut

"[...] Penting untuk dicatat bahwa istilah kemungkinan dan probabilitas bukanlah sinonim. Kuantitas adalah fungsi dari dan . Untuk tetap , mendefinisikan probabilitas lebih dari , untuk tetap , mendefinisikan kemungkinan . "P(nb|u,N)nBuuP(nb|u,N)nBnBP(nB|u,N)u

  • Saya memahami ini sebagai berikut: adalah probabilitas bawah diberikan , dengan demikian fungsi . Tetapi mengingat nilai yang diberikan dan mengevaluasi ketergantungan pada berbeda, kita sebenarnya menggunakan fungsi yang berbeda .p(A|B)ABprobability:A[0,1]aAp(A=a|B)bBL:B[0,1]

  • Apakah interpretasi ini benar?

  • Dapatkah seseorang kemudian mengatakan bahwa metode kemungkinan maksimum dapat dimotivasi oleh teorema Bayesian, di mana yang sebelumnya dipilih untuk konstan?

Wirrbel
sumber
1
Sebagai elemen jawaban, saya menyarankan Anda jawabannya dengan tautan Stephane Laurent di mathoverflow.net/questions/10971/… . Semoga ini bisa membantu.
peuhp

Jawaban:

7

Saya pikir mungkin cara terbaik untuk menjelaskan gagasan kemungkinan adalah dengan mempertimbangkan contoh nyata. Misalkan saya memiliki sampel pengamatan IID yang diambil dari distribusi Bernoulli dengan probabilitas keberhasilan yang tidak diketahuip: XiBernoulli(p), i=1,,n, jadi fungsi massa probabilitas gabungan dari sampel adalah Ekspresi ini juga mencirikan kemungkinan , mengingat sampel yang diamati : Tetapi jika kita menganggap sebagai variabel acak, kemungkinan ini bukan densitas: Namun, proporsional dengan kepadatan probabilitas, itulah sebabnya kami mengatakan itu adalah kemungkinan

Pr[X=xp]=i=1npxi(1p)1xi.
px=(x1,,xn)
L(px)=i=1npxi(1p)1xi.
p
p=01L(px)dp1.
pmenjadi nilai tertentu yang diberikan sampel - itu mewakili, dalam beberapa hal, masuk akal relatif menjadi beberapa nilai untuk pengamatan yang kami buat.p

Misalnya, misalkan dan sampelnya . Secara intuitif kita akan menyimpulkan bahwa lebih cenderung lebih dekat ke daripada ke , karena kami mengamati lebih banyak. Memang, kita memiliki Jika kita memplot fungsi ini pada , kita dapat melihat bagaimana kemungkinan mengkonfirmasi intuisi kita. Tentu saja, kita tidak tahu nilai sebenarnya dari itu bisa saja daripada , tetapi fungsi kemungkinan memberitahu kita bahwa yang pertama jauh lebih kecil daripada yang terakhir. Tetapi jika kita ingin menentukan probabilitasn=5x=(1,1,0,1,1)p10

L(px)=p4(1p).
p[0,1]pp=0.25p=0.8bahwa terletak pada interval tertentu, kita harus menormalkan kemungkinan: karena , maka dalam Untuk mendapatkan kepadatan posterior untuk , kita harus mengalikan dengan : Sebenarnya, posterior ini adalah distribusi beta dengan parameter . Sekarang area di bawah kepadatan sesuai dengan probabilitas.pp=01p4(1p)dp=130p30
fp(px)=30p4(1p).
a=5,b=2

Jadi, yang pada dasarnya kita lakukan di sini adalah menerapkan aturan Bayes: Di sini, adalah distribusi sebelumnya pada parameter (s) , pembilangnya adalah kemungkinan yang juga merupakan distribusi gabungan dari

fΘ(θx)=fX(xθ)fΘ(θ)fX(x).
fΘ(θ)θL(θx)=fX(xθ)fΘ(θ)=fX,Θ(x,θ)X,Θ , dan penyebutnya adalah densitas marginal (tanpa syarat) dari , diperoleh dengan mengintegrasikan distribusi sambungan sehubungan dengan untuk menemukan konstanta normalisasi yang membuat kemungkinan kepadatan kemungkinan dengan probabilitas sehubungan dengan parameter. Dalam contoh numerik kami, secara implisit kami mengambil prior untuk untuk menjadi seragam pada . Dapat ditunjukkan bahwa, untuk sampel Bernoulli, jika prior adalah , posterior untuk juga Beta, tetapi dengan parameter ,XθfΘ[0,1]Beta(a,b)fΘa=a+xib=b+nxi. Kami menyebutnya konjugat sebelumnya (dan menyebutnya sebagai pasangan konjugat Bernoulli-Beta).
heropup
sumber