Apakah ada gunanya kuantitas
dalam statistik atau teori informasi?
probability
entropy
information-theory
charles.y.zheng
sumber
sumber
Jawaban:
Membiarkan menunjukkan fungsi kepadatan probabilitas (baik sehubungan dengan Lebesgue atau menghitung ukuran, masing-masing), kuantitasf
dikenal sebagaientropi Renyipesananα≥0. Ini adalah generalisasi dari entropi Shannon yang mempertahankan banyak properti yang sama. Untuk kasusα=1, kami menafsirkanH1(f)sebagailimα→1Hα(f), dan ini sesuai dengan entropi Shannon standarH(f).
Renyi memperkenalkan ini di makalahnya
yang layak dibaca, tidak hanya untuk ide-ide tetapi untuk gaya eksposisi yang patut dicontoh.
Kasus adalah salah satu pilihan yang lebih umum untuk α dan kasus khusus ini (juga) sering disebut sebagai entropi Renyi. Di sini kita melihat bahwa H 2 ( f ) = - log ( ∫ f 2 d μ ) = - log ( E fα=2 α
untuk variabel acak yang didistribusikan dengan kepadatan f .
Perhatikan bahwa adalah fungsi cembung dan oleh karena itu, ketidaksetaraan Jensen kita memiliki H 2 ( f ) = - log ( E f ( X ) ) ≤ E ( - log f ( X ) ) = - E log f ( X ) = H ( f )−log(x)
Contoh alami lain di mana entropi Renyi muncul adalah ketika mempertimbangkan variabel acak diskrit dan salinan independen X ⋆ . Dalam beberapa skenario kita ingin mengetahui probabilitas bahwa X = X ⋆ , yang dengan perhitungan elementer adalah P ( X = X ⋆ ) = ∞ ∑ i = 1 P ( X = x i , X ⋆ = x i ) = ∞ ∑ i = 1 P (X X⋆ X=X⋆
Di sini menunjukkan kepadatan sehubungan dengan penghitungan ukuran pada set nilai Ω = { x i : i ∈ N }f Ω={xi:i∈N} .
Entropi (umum) Renyi juga tampaknya terkait dengan energi bebas suatu sistem dalam kesetimbangan termal, meskipun saya tidak secara pribadi memahami hal itu. Makalah (sangat) baru pada subjek adalah
sumber