Mencoba memahami Proses Gaussian

9

Saya membaca buku GPML dan dalam Bab 2 (halaman 15) , buku ini menceritakan cara melakukan regresi menggunakan Proses Gaussian (GP), tetapi saya mengalami kesulitan mencari cara kerjanya.

Dalam inferensi Bayesian untuk model parametrik, pertama-tama kita memilih prior pada parameter model θ, itu adalah p(θ); kedua, diberikan data pelatihanD, kami menghitung kemungkinannya p(D|θ); dan akhirnya kami memiliki posteriorθ sebagai p(θ|D), yang akan digunakan dalam distribusi prediktif

p(y|x,D)=p(y|x,θ)p(θ|D)dθ
, dan di atas adalah apa yang kita lakukan dalam inferensi Bayesian untuk model parametrik, kan?

Nah, seperti yang dikatakan dalam buku ini, GP adalah non-parametrik, dan sejauh yang saya mengerti, setelah menentukan fungsi rata - rata m(x)dan fungsi kovarians k(x,x), kami memiliki fungsi GP over f,

fGP(m,k)
, dan ini adalah prioritas darif. Sekarang saya memiliki satu set data pelatihan bebas kebisingan
D={(x1,f1),...,(xn,fn)}
, Saya pikir saya harus menghitung kemungkinannya p(D|f)dan kemudian posterior p(f|D), dan akhirnya gunakan posterior untuk membuat prediksi.

NAMUN, bukan itu yang dilakukan buku! Maksud saya, setelah menentukan sebelumnyap(f), itu tidak menghitung kemungkinan dan posterior, tetapi langsung saja ke prediksi prediktif.

Pertanyaan:

1) Mengapa tidak menghitung kemungkinan dan posterior? Hanya karena GP non-parametrik, jadi kami tidak melakukannya?

2) Seperti yang dilakukan dalam buku ini (halaman 15 ~ 16), ia memperoleh distribusi prediktif melalui distribusi gabungan dari kumpulan data pelatihanf dan menguji kumpulan data f, yang disebut sebagai joint prior . Baiklah, ini membingungkan saya, mengapa menggabungkan mereka bersama?

3) Saya melihat beberapa artikel menelepon fyang laten variabel, mengapa?

alpukat
sumber
Secara pribadi, saya tidak berpikir regresi GP milik inferensi Bayesian, karena tidak mengikuti langkah-langkah dalam pendekatan Bayesian. Distribusi prediktif yang disebut dalam GP diperoleh dengan menggabungkan data pelatihan dan tes sebelumnya , dan kemudian mengkondisikan pada data pelatihan, itu tidak memanfaatkan kemungkinan atau posterior.
alpukat

Jawaban:

2

dan di atas adalah apa yang kita lakukan dalam inferensi Bayesian untuk model parametrik, kan?

Buku ini menggunakan rata-rata model Bayesian, yang sama untuk model parametrik atau metode Bayesian lainnya, mengingat Anda memiliki posterior di atas parameter Anda.

Sekarang saya memiliki satu set data pelatihan bebas kebisingan

Tidak perlu 'bebas noise'. Lihat halaman selanjutnya.

NAMUN, bukan itu yang dilakukan buku! Maksud saya, setelah menentukan p (f) sebelumnya, itu tidak menghitung kemungkinan dan posterior, tetapi langsung saja ke prediksi prediktif.

Lihat ini: https://people.cs.umass.edu/~wallach/talks/gp_intro.pdf

Saya percaya, di halaman 17 kita memiliki kemungkinan sebelumnya, dan kemudian. Saya percaya jika Anda menulis derivasi, dan menemukan posterior, dan kemudian rata-rata di atas posterior untuk prediksi (seperti dalam tampilan bobot-ruang) itu akan menghasilkan persamaan yang sama seperti pada halaman 19 untuk mean dan kovarians.

Daniel
sumber
Terima kasih atas balasan Anda, tetapi saya telah melihat bahwa banyak buku tidak menyebutkan Bayesian sama sekali, mereka hanya menghitung distribusi bersyarat p(f|f), dan katakan ini posterior, apa-apaan?
alpukat
Menemukan kondisional pada dasarnya menggunakan rumus Bayes. Menulis hal-hal dalam formulasi Bayesian konvensional sedikit rumit untuk dokter; mereka hanya merujuk pada menemukan kondisi dan ....
Daniel
AFAIK, kondisional dihitung dengan cara ini, p(x|y)=p(x,y)/p(y), tapi formula Bayes adalah p(x|y)=p(y|x)p(x)/p(y). Saya tidak melihat mengapa mencari kondisional menggunakan rumus Bayes, bisakah Anda lebih spesifik?
alpukat
Dan seperti yang Anda katakan dalam komentar, "menulis hal-hal dalam formulasi Bayesian konvensional adalah rumit untuk dokter", dengan formulasi Bayesian konvensional , maksud Anda, pertama menghitung posteriorp(f|D), kemudian hitung distribusi prediktif p(f|D)=p(f|f)p(f|D)df.
alpukat