Sering dikatakan bahwa regresi proses gaussian berhubungan (GPR) dengan regresi linier bayesian dengan (kemungkinan) jumlah tak terbatas fungsi basis. Saat ini saya mencoba memahami ini secara detail untuk mendapatkan intuisi untuk model seperti apa yang dapat saya ungkapkan menggunakan GPR.
- Apakah Anda berpikir bahwa ini adalah pendekatan yang baik untuk mencoba memahami GPR?
Dalam buku Gaussian Processes for Machine learning Rasmussen dan Williams menunjukkan bahwa himpunan proses gaussian yang dijelaskan oleh kernel kuadrat eksponensial parameterised
- Dapatkah parameterisasi kernel terdiferensiasi selalu diterjemahkan ke dalam parameterisasi fungsi sebelumnya dan basis atau adakah kernel terdiferensiasi di mana mis. Jumlah fungsi basis tergantung pada konfigurasi?
Pemahaman saya sejauh ini adalah bahwa untuk fungsi kernel tetap k (x, x ') Teorema Mercer memberi tahu kita bahwa dapat dinyatakan sebagai k ( x , x ′ ) = ∞ ∑ i = 1 λ i ϕ i ( x ) ϕ i ( x ′ ) di mana ϕ i adalah fungsi baik ke dalam real atau bilangan kompleks. Jadi, untuk kernel yang diberikan model regresi bayesian yang sesuai memiliki w sebelumnya
Pertanyaan saya berikutnya adalah tentang inversi teorema tentara.
- Kumpulan fungsi basis manakah yang mengarah ke kernel yang valid?
Dan ekstensi
- Set fungsi basis parameterisasi mana yang mengarah ke kernel terdiferensiasi yang valid?
sumber