Apa itu Bayesian Deep Learning?

13

Apa itu Bayesian Deep Learning dan bagaimana hubungannya dengan statistik Bayesian tradisional dan Deep Learning tradisional?

Apa konsep dan matematika utama yang terlibat? Bisakah saya mengatakan itu hanya statistik bayesian non parametrik? Apa karya seminalnya serta perkembangan dan aplikasi utamanya saat ini?

PS: Bayesian Deep Learning mendapat banyak perhatian, lihat workshop NIPS.

statlearner
sumber

Jawaban:

10

Berangkat dari tautan lokakarya NIPS Anda, Yee Whye Teh melakukan pidato utama di NIPS di Bayesian Deep Learning (video: https://www.youtube.com/watch?v=LVBvJsTr3rg , slide: http: //csml.stats. ox.ac.uk/news/2017-12-08-ywteh-breiman-lecture/). Saya pikir pada suatu titik dalam pembicaraan, Teh merangkum pembelajaran Bayesian yang mendalam sebagai penerapan kerangka Bayesian untuk ide-ide dari pembelajaran yang mendalam (seperti belajar posterior di atas bobot jaringan saraf), dan pembelajaran Bayesian yang dalam sebagai penerapan ide dari pembelajaran dalam ke Kerangka Bayesian (seperti proses Gaussian mendalam atau keluarga eksponensial mendalam). Tentu saja ada ide-ide yang melintasi garis antara dua konsep, seperti autoencoder variasional. Ketika kebanyakan orang mengatakan Bayesian belajar mendalam, mereka biasanya berarti salah satu dari keduanya, dan itu tercermin dalam makalah yang diterima di bengkel yang Anda tautkan (bersama dengan bengkel pada tahun sebelumnya). Sementara ide-ide itu kembali ke karya Neal pada pembelajaran Bayesian tentang jaringan saraf pada tahun 90-an (http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.446.9306&rep=rep1&type=pdf ), dan sudah ada pekerjaan selama bertahun-tahun sejak itu, mungkin salah satu makalah terbaru yang lebih penting adalah kertas autoencoder variasi asli ( https://arxiv.org/pdf/1312.6114.pdf ).

aleshing
sumber
10

Saya menyarankan agar Anda pertama kali memahami dengan baik apa yang menjadi model probabilistik yang mendasari Jaringan Bayural tradisional Neural. Berikut ini, beberapa istilah akan ditulis dengan huruf tebal . Silakan coba googling istilah-istilah itu untuk menemukan informasi yang lebih terperinci. Ini hanya gambaran umum dasar. Saya harap ini membantu.

Mari kita pertimbangkan kasus regresi dalam jaringan saraf feedforward dan buat beberapa notasi.

Biarkan menunjukkan nilai prediktor pada lapisan input . Nilai unit di lapisan dalam akan dilambangkan dengan ( z ( ) 1 , , z ( ) N ) , untuk(x1,,xp)=:(z1(0),,zN0(0))(z1(),,zN()) . Akhirnya, kita memilikilapisan output ( y 1 , ... , y k ) = : ( z ( L ) 1 , ... , z ( L ) N L ) .=1,,L1 (y1,,yk)=:(z1(L),,zNL(L))

The bobot dan bias yang unit pada lapisan akan dilambangkan dengan w ( ) i j dan b ( ) i , masing-masing, untuk = 1 , ... , L , i = 1 ... , N , dan j = 1 , , N - 1 .iwij()bi()=1,,Li=1,Nj=1,,N1

Misalkan menjadi fungsi aktivasi untuk unit i pada layer , untuk = 1 , , L dan i = 1 , N .gi():RN1Ri=1,,Li=1,N

Fungsi aktivasi yang umum digunakan adalah logistik , ReLU (alias bagian positif ), dan tanh .

=1,,L

G():RN1RN:(z1(1),,zN1(1))(z1(),,zN()),
zi()=gi()(j=1N1wij()zj(1)+bi()),
i=1,,N

θ

θ={wij(),bi():=1,,L;i=1,N;j=1,,N1},
Gθ:RpRk
Gθ=G(L)G(L1)G(1).

Tidak ada probabilitas yang terlibat dalam uraian di atas. Tujuan dari bisnis jaringan saraf asli adalah fungsi pas .

" Jauh " dalam Pembelajaran Mendalam berarti keberadaan banyak lapisan dalam di jaringan saraf yang sedang dipertimbangkan.

{(xi,yi)Rp×Rk:i=1,,n}

i=1nyiGθ(xi)2,
θxGθ^(x)θ^seperti penalti untuk fungsi tujuan, atau menggunakan putus sekolah selama pelatihan. Geoffrey Hinton (alias Deep Learning Godfather) dan kolaborator menemukan banyak hal ini. Kisah sukses Deep Learning ada di mana-mana.

Lx,y(θ,σ2)σnexp(12σ2i=1nyiGθ(xi)2),
π(θ,σ2)exp(12σ02=1Li=1N((bi())2+j=1N1(wij())2))×π(σ2).

Therefore, the marginal priors for the weights and biases are normal distributions with zero mean and common variance σ02. This original joint model can be made much more involved, with the trade-off of making inference harder.

Bayesian Deep Learning faces the difficult task of sampling from the corresponding posterior distribution. After this is accomplished, predictions are made naturally with the posterior predictive distribution, and the uncertainties involved in these predictions are fully quantified. The holy grail in Bayesian Deep Learning is the construction of an efficient and scalable solution. Many computational methods have been used in this quest: Metropolis-Hastings and Gibbs sampling, Hamiltonian Monte Carlo, and, more recently, Variational Inference.

Check out the NIPS conference videos for some success stories: http://bayesiandeeplearning.org/

Zen
sumber