Cross entropy identik dengan KL divergence plus entropy dari target distribusi. KL sama dengan nol ketika kedua distribusi itu sama, yang tampaknya lebih intuitif bagi saya daripada entropi target distribusi, yang merupakan lintas entropi pada pertandingan.
Saya tidak mengatakan ada lebih banyak informasi di salah satu dari yang lain kecuali bahwa pandangan manusia mungkin menemukan nol lebih intuitif daripada positif. Tentu saja, orang biasanya menggunakan metode evaluatif untuk benar-benar melihat seberapa baik klasifikasi terjadi. Tetapi apakah pilihan entropi silang atas KL bersejarah?
sumber