Normalisasi konstan dalam teorema Bayes

15

Saya membaca bahwa dalam aturan Bayes, penyebut dariPr(data)

Pr(parameterdata)=Pr(dataparameter)Pr(parameter)Pr(data)

disebut konstanta normalisasi . Apa itu sebenarnya? Apa tujuannya? Mengapa terlihat seperti Pr(dSebuahtSebuah) ? Mengapa tidak tergantung pada parameter?

amatir
sumber
4
Ketika Anda mengintegrasikan , Anda mengintegrasikan parameter dan hasilnya tidak memiliki istilah tergantung pada parameter, dengan cara yang sama bahwa \ int_ {x = 0} ^ {x = 2} xy \; dx = 2y tidak bergantung pada x . x = 2 x = 0 x yf(data|params)f(params)xx=0x=2xydx=2yx
Henry

Jawaban:

16

Penyebut, , diperoleh dengan mengintegrasikan parameter dari probabilitas gabungan, . Ini adalah probabilitas marjinal data dan, tentu saja, itu tidak bergantung pada parameter karena ini telah diintegrasikan.Pr ( data , parameter )Pr(data)Pr(data,parameter)

Sekarang, sejak:

  • Pr(data) tidak bergantung pada parameter yang ingin disimpulkan;
  • Pr(data) umumnya sulit dihitung dalam bentuk tertutup;

kita sering menggunakan adaptasi formula Baye berikut:

Pr(parameterdata)Pr(dataparameter)Pr(parameter)

Pada dasarnya, tidak lain adalah "konstanta normalisasi", yaitu konstanta yang membuat kerapatan posterior berintegrasi menjadi satu .Pr(data)

okram
sumber
2
Apa yang sebenarnya Anda maksud dengan "dengan mengintegrasikan parameter"? Apa arti tepat dari "mengintegrasikan" dalam konteks ini?
nbro
2
@nbro: Maksud saya Pr (data) = integral atas parameter Pr (data, parameter)
ocram
2

Pr(data)

Keras
sumber