Biarkan f [x] menjadi Gaussian Mixture pdf dengan n syarat bobot seragam, berarti , dan varians yang sesuai :
Tampaknya intuitif bahwa kemungkinan log yang diambil sampel di pusat Gaussian akan lebih besar daripada (atau sama dengan) kemungkinan log rata-rata:
Ini jelas benar untuk varian kecil (masing-masing berada di atas Gaussian sempit) dan untuk varian yang sangat besar (semua di atas satu Gaussian luas bersama-sama), dan memang benar untuk setiap set dan telah saya buat dan optimalkan, tetapi saya tidak dapat menemukan cara untuk membuktikan bahwa itu selalu benar. Tolong?
machine-learning
gaussian-mixture
Jerry Guern
sumber
sumber
Jawaban:
Ini lebih merupakan komentar yang diperluas, jadi anggaplah demikian. Definisikan: (saya menggunakan standar notasi untuk distribusi Gaussian).
Anda ingin membuktikan bahwa: yang
Karena ketidaksetaraan Jensen (lihat misalnya Huber et al., Tentang Entropy Approximation for Gaussian Mixture Random Vektor, 2008 ), dengan , yang berasal dari konvolusi dua kepadatan Gaussian. Jadi kita dapatkan: Menariknya, masih merupakan campuran dari Gaussians dengan rata-rata komponen sama dengan yang ada di
sumber
Saya rasa saya mengerti. Hanya diperlukan langkah-langkah dasar, meskipun Anda harus menggabungkannya dengan benar.
Mari kita dengan kepadatan -th Gaussian, yaitufsaya saya 12 πσ2saya√e( x -μsaya)22σ2saya
Kami mulai dengan Ketimpangan Jensen. Fungsi adalah cembung, maka kita memiliki: . Setelah mengintegrasikan kita mendapatkan: Edit : Ketidaksamaan di bawah ini salah dan begitu juga solusinyag( X ) = x l o g( x ) f( x ) log( f( x ) ) ≤1n∑ni = 1fsaya( x ) log(fsaya( x ) )
Sekarang RHS. Untuk semua kita memiliki , jadi: Oleh karena itu: Kita dibiarkan membuktikan: Tetapi kami memiliki: Menjumlahkan dan membaginya dengan kita mendapatkan apa kami membutuhkansaya f≥fsaya
sumber