Saya baru-baru ini membaca artikel ini pada entropi distribusi probabilitas diskrit. Ini menjelaskan cara berpikir yang baik tentang entropi sebagai bit angka yang diharapkan (setidaknya ketika menggunakan dalam definisi entropi Anda) yang diperlukan untuk menyandikan pesan ketika penyandian Anda optimal, mengingat kemungkinan distribusi kata-kata yang Anda gunakan.
Namun, ketika memperpanjang dengan kasus terus menerus seperti di sini saya percaya cara berpikir istirahat turun, karena untuk setiap distribusi probabilitas kontinu p ( x ) (perbaiki saya jika yang salah), jadi saya bertanya-tanya apakah ada cara berpikir yang baik tentang apa artinya entropi berkelanjutan, seperti halnya dengan kasus diskrit.
entropy
information-theory
dippynark
sumber
sumber
Jawaban:
Tidak ada interpretasi entropi diferensial yang akan bermakna atau bermanfaat seperti entropi. Masalah dengan variabel acak kontinu adalah bahwa nilainya biasanya memiliki probabilitas 0, dan karena itu akan membutuhkan jumlah bit yang tak terbatas untuk menyandikan.
Jika Anda melihat batas entropi diskrit dengan mengukur probabilitas interval[nε,(n+1)ε[ , Anda berakhir dengan
dan bukan entropi diferensial. Kuantitas ini dalam arti lebih bermakna, tetapi akan berbeda hingga tak terbatas karena kita mengambil interval yang lebih kecil dan lebih kecil. Masuk akal, karena kita akan membutuhkan lebih banyak dan lebih banyak bit untuk mengkodekan di mana dari banyak interval nilai jatuh nilai acak kita.
Kuantitas yang lebih berguna untuk melihat distribusi kontinu adalah entropi relatif (juga divergensi Kullback-Leibler). Untuk distribusi diskrit:
Lihat ceramah Sergio Verdu untuk pengantar yang bagus untuk entropi relatif.
sumber