Hyperplanes secara optimal mengklasifikasikan data ketika input independen dengan kondisi - Mengapa?

10

Dalam makalah yang disebut Deep Learning dan Information Bottleneck Principle , penulis menyatakan di bagian II A) berikut ini:

Neuron tunggal mengklasifikasikan hanya input yang dapat dipisahkan secara linear, karena mereka hanya dapat mengimplementasikan hiperplanes dalam ruang inputnya . Hyperplanes dapat secara optimal mengklasifikasikan data ketika input secara independen tergantung.u=wh+b

Untuk menunjukkan ini, mereka mendapatkan yang berikut ini. Menggunakan teorema Bayes, mereka mendapatkan:

p(y|x)=11+exp(logp(x|y)p(x|y)logp(y)p(y)) (1)

Di mana adalah input, adalah kelas dan adalah kelas yang diprediksi (saya berasumsi, tidak didefinisikan). Melanjutkan, mereka menyatakan bahwa:xyyy

p(x|y)p(x|y)=j=1N[p(xj|y)p(xj|y)]np(xj) (2)

Di mana adalah dimensi input dan n saya tidak yakin (sekali lagi, keduanya tidak terdefinisi). Mempertimbangkan sigmoidal neuron, dengan fungsi aktivasi sigmoid \ sigma (u) = \ frac {1} {1 + exp (-u)} dan preactivation u , setelah memasukkan (2) ke dalam (1) kita mendapatkan nilai bobot optimal w_j = log \ frac {p (x_j | y)} {p (x_j | y ')} dan b = log \ frac {p (y)} {p (y')} , ketika nilai input h_j = np (x_j ) .n σ ( u ) = 1Nn uwj=logp(xj|y)σ(u)=11+exp(u)u b=logp(y)wj=logp(xj|y)p(xj|y) hj=np(xj)b=logp(y)p(y)hj=np(xj)

Sekarang ke pertanyaan saya. Saya mengerti bagaimana memasukkan (2) ke dalam (1) mengarah pada bobot optimal dan nilai input w,b,h . Apa yang saya tidak mengerti, adalah sebagai berikut:

  1. Bagaimana (1) diturunkan menggunakan teorema Bayes?
  2. Bagaimana cara (2) diturunkan? Apa itu ? Apa artinya itu? Saya menganggap itu ada hubungannya dengan independensi bersyaratn
  3. Sekalipun dimensi x independen secara kondisional, bagaimana seseorang dapat menyatakan bahwa ia sama dengan probabilitas penskalaannya? (yaitu bagaimana Anda bisa menyatakan ?)hj=np(xj)

EDIT: Variabel adalah variabel kelas biner. Dari sini saya berasumsi bahwa adalah kelas "lain". Ini akan menyelesaikan pertanyaan 1. Apakah Anda setuju?y yy

spurra
sumber
Saya berjuang untuk memahami dari mana persamaan 2 berasal, meskipun ada petunjuk dalam jawaban oleh penulis makalah (Prof. Tishby). Saya mengerti bagian yang berasal dari asumsi independensi bersyarat. Namun, saya tidak yakin tentang eksponen - mengapa ada di sana? np(xj)
IcannotFixIn

Jawaban:

5

Maaf tentang detail yang hilang di makalah singkat kami, tetapi hubungan dan hubungan antara uji Likelihood Ratio dan neuron sigmoidal ini tentu bukan hal baru, dan dapat ditemukan di buku teks (mis. Uskup 2006). Dalam makalah kami, 'N' adalah dimensi input dan 'n' adalah ukuran sampel uji (yang sebenarnya diterjemahkan ke input SNR dengan asumsi bahwa SNR tumbuh seperti sqrt (n)). Koneksi ke fungsi sigmoidal dilakukan melalui aturan Bayes, sebagai posterior kelas. Tidak ada bagian lain dari makalah ini dan makalah kami yang lebih baru dan lebih penting dari 2017 yang benar-benar bergantung pada ini.

Naftali Tishby

Naftali Tishby
sumber
2
Terima kasih telah menjelaskan ini di sini. Merupakan praktik standar dalam komunitas ini untuk menulis kutipan penuh sehingga pembaca yang tertarik dapat mencari sumbernya. Bisakah Anda melakukan ini untuk Bishop (2006)?
mkt - Reinstate Monica
5

Ini adalah pengaturan model di mana penulis menggunakan bentuk khusus dari teorema Bayes yang berlaku ketika Anda memiliki variabel biner yang menarik. Mereka pertama-tama menurunkan bentuk teorema Bayes ini sebagai Persamaan (1), dan kemudian mereka menunjukkan bahwa kondisi dalam Persamaan (2) menuntun mereka ke bentuk linear yang ditentukan untuk jaringan mereka. Penting untuk dicatat bahwa persamaan terakhir tidak diturunkan dari kondisi sebelumnya --- melainkan kondisi untuk bentuk linear yang mereka gunakan untuk jaringan mereka.


Turunkan persamaan pertama: Persamaan (1) dalam makalah ini hanya bentuk teorema Bayes yang membingkai probabilitas bunga bersyarat dalam hal fungsi logistik standar (sigmoid) yang beroperasi pada fungsi kemungkinan dan sebelumnya. Mengambil dan menjadi dua hasil biner dari variabel acak , dan menerapkan teorema Bayes, memberikan:yyY

p(y|x)=p(y,x)p(x)=p(x|y)p(y)p(x|y)p(y)+p(x|y)p(y)=11+p(x|y)p(y)/p(x|y)p(y)=11+exp(log(p(x|y)p(y)p(x|y)p(y)))=11+exp(logp(x|y)p(x|y)logp(y)p(y))=logistic(logp(x|y)p(x|y)+logp(y)p(y)).

Menggunakan Persamaan (2) sebagai kondisi untuk bentuk lienar dari jaringan: Seperti yang dinyatakan di atas, persamaan ini bukan sesuatu yang diturunkan dari hasil sebelumnya. Sebaliknya, itu adalah kondisi yang cukup yang mengarah ke bentuk linier yang digunakan penulis dalam model mereka --- yaitu, penulis mengatakan bahwa jika persamaan ini berlaku, maka mengikuti hasil tertentu. Membiarkan vektor input memiliki panjang , jika Persamaan (2) berlaku, maka mengambil logaritma dari kedua sisi memberi:x=(x1,...,xN)N

logp(x|y)p(x|y)=logi=1N[p(xi|y)p(xi|y)]np(xi)=i=1Nnp(xi)log[p(xi|y)p(xi|y)]=i=1Nhiwi.

Dalam kondisi ini, oleh karena itu kami memperoleh bentuk posterior:

p(y|x)=logistic(logp(x|y)p(x|y)+logp(y)p(y))=logistic(i=1Nhiwi+b),

yang merupakan bentuk yang digunakan penulis dalam jaringan mereka. Ini adalah bentuk model yang didalilkan oleh penulis di bagian latar belakang, sebelum menentukan Persamaan (1) - (2). Makalah ini tidak mendefinisikan dalam pengaturan model ini, tetapi seperti yang Anda tunjukkan, jawaban oleh Prof Tishby mengatakan bahwa ini adalah ukuran sampel pengujian. Dalam kaitan dengan pertanyaan ketiga Anda, tampak bahwa kebutuhan Persamaan (2) berarti bahwa nilai-nilai dalam adalah tidak bebas bersyarat .nxy

Ben - Pasang kembali Monica
sumber
Prof. Tishby (penulis) mengatakan, dalam jawabannya sendiri, bahwa adalah ukuran sampel uji. Inilah sebabnya saya merasa bahwa eq (2) memiliki interpretasi yang lebih kaya daripada hanya kondisi arbitrer ke bentuk linear dari jaringan. n
IcannotFixIni
Terima kasih - Saya telah mengedit jawaban saya untuk mencerminkan informasi tambahan ini.
Ben - Reinstate Monica
4

Untuk 1

P(yx)=P(y,x)P(x)

=P(y,x)iP(yi,x)

Sekarang karena adalah biner, ini menjadi:yi

=P(y,x)P(y,x)+P(y,x)

=11+P(y,x)P(y,x)

=11+exp[log P(y,x)P(y,x)]

dan dari sana hanya milik logaritma untuk sampai ke bentuk akhir (harus cukup jelas pada titik ini, beri tahu saya jika tidak).

Chris Ormandy
sumber