Bentuk paling sederhana dari teori informasi CLT adalah sebagai berikut:
Biarkan menjadi iid dengan mean dan varians 1 . Biarkan f_n menjadi kepadatan jumlah normal \ frac {\ sum_ {i = 1} ^ n X_i} {\ sqrt {n}} dan \ phi menjadi kepadatan Gaussian standar. Maka teori informasi CLT menyatakan bahwa, jika D (f_n \ | \ phi) = \ int f_n \ log (f_n / \ phi) dx terbatas untuk beberapa n , maka D (f_n \ | \ phi) \ ke 0 sebagai n \ hingga \ infty .0 1Σ n i = 1 X i
Tentu saja konvergensi ini, dalam arti tertentu, "lebih kuat" daripada konvergensi yang baik dalam literatur, konvergensi dalam distribusi dan konvergensi dalam metrik, berkat ketidaksetaraan Pinsker . Artinya, konvergensi dalam KL-divergence menyiratkan konvergensi dalam distribusi dan konvergensi dalam jarak .
Saya ingin tahu dua hal.
Apa yang hebat tentang hasil ?
Apakah hanya karena alasan yang disebutkan dalam paragraf ketiga kita mengatakan konvergensi dalam KL-divergence ( yaitu , ) lebih kuat?
NB: Saya menanyakan pertanyaan ini beberapa waktu lalu di math.stackexchange di mana saya tidak mendapatkan jawaban.
Jawaban:
Satu hal yang hebat dengan teorema ini adalah ia menyarankan teorema limit dalam beberapa pengaturan di mana teorema limit pusat biasa tidak berlaku. Misalnya, dalam situasi di mana distribusi entropi maksimum adalah beberapa distribusi nonnormal, seperti untuk distribusi pada lingkaran, ini menunjukkan konvergensi ke distribusi yang seragam.
sumber
Setelah melihat sekeliling, saya tidak dapat menemukan contoh konvergensi dalam distribusi tanpa konvergensi dalam entropi relatif, jadi ini sulit untuk mengukur "kebesaran" hasil itu.
Bagi saya, sepertinya hasil ini hanya menggambarkan entropi relatif produk konvolusi. Ini sering dipandang sebagai interpretasi alternatif dan kerangka kerja bukti dari Teorema Limit Sentral, dan saya tidak yakin itu memiliki implikasi langsung dalam teori probabilitas (meskipun dalam teori informasi).
Dari Teori Informasi dan Teorema Limit Pusat (halaman 19).
sumber
Tentang poin kedua saat Anda menunjuk, itu merespons dalam paragraf Anda.
sumber