Saya minta maaf, ini sedikit pertanyaan "lunak".
Teori informasi tidak memiliki konsep kompleksitas komputasi. Sebagai contoh, sebuah instance dari SAT, atau sebuah instance dari SAT ditambah sedikit yang menunjukkan kepuasan membawa jumlah informasi yang sama.
Apakah ada cara untuk memformalkan konsep "yang secara politis dapat diketahui"?
Kerangka kerja seperti itu dapat mendefinisikan misalnya gagasan perbedaan polinomial-KL antara variabel acak X relatif Y karena jumlah bit yang diperlukan untuk menghitung X dalam waktu polinomial yang diberikan Y.
Demikian juga, entropi dari variabel acak X dapat didefinisikan sebagai jumlah bit yang diperlukan untuk mengkodekan X dengan cara yang dapat diterjemahkan dalam waktu polinomial.
Apakah generalisasi semacam itu telah dipelajari? Bisakah itu dibuat konsisten?
Jawaban:
Iya. Kompleksitas Kolmogorov yang terikat waktu setidaknya merupakan salah satu "generalisasi" semacam itu (walaupun sebenarnya ini bukan generalisasi, tetapi konsep terkait). Perbaiki mesin Turing yang universal . The t ( n ) -waktu-dibatasi kompleksitas Kolmogorov dari string x yang diberikan string y (relatif terhadap U ), dinotasikan K t U ( x | y ) (subskrip U sering ditekan) didefinisikan sebagai terpendek tali p ( "program" untuk U ) sehingga U ( p , yU t ( n ) x y U KtU( x | y) U hal U dan sehingga perhitungan U ( p , y ) paling banyak memakan waktu t ( | x | ) . Jika Anda menganggap ini sebagai definisi Anda tentang "informasi kondisional", maka Anda juga dapat mendefinisikan semua konsep biasa dari teori informasi.U( p , y) = x U( p , y) t ( | x | )
Namun, dalam pengaturan yang dibatasi waktu ini, tidak semua teorema teori informasi yang umum diketahui berlaku. Sebagai contoh, simetri informasi diketahui berlaku untuk kompleksitas Kolmogorov biasa (tidak ada batas waktu), tetapi tidak diketahui tahan untuk batas waktu. Lihat, misalnya, Bab 6 dari tesis Troy Lee .
Jika Anda khawatir bahwa ini berlaku untuk string daripada distribusi, saya sarankan membaca makalah berikut, yang mengatakan bahwa sebenarnya kompleksitas string Kolmogorov dan entropi Shannon distribusi sangat erat kaitannya:
Grunwald dan Vitanyi. Informasi Shannon dan Kompleksitas Kolmogorov
Hammer, Romashchenko, Shen, Vereshchagin. Ketidaksetaraan untuk Shannon Entropy dan Kolmogorov Complexity .
(Di sisi lain, ada beberapa properti yang diketahui tidak dibagi antara keduanya, lihat Muchnik & Vereshchagin, Shannon Entropy vs Kolmogorov Complexity .)
sumber
Salah satu masalah adalah bahwa banyak teorema yang kita gunakan dalam teori informasi, tidak berlaku di dunia komputasi. Oleh karena itu, bahkan jika kita meresmikan analog komputasi entropi, teori yang dihasilkan mungkin tidak terlihat seperti teori informasi lagi.
sumber
Saya tidak mengetahui model komputasi informasi-theroetic, tetapi ada aplikasi yang jelas dari teori informasi untuk kompleksitas komputasi.
Secara lebih umum, hasil teoritik informasi dapat berfungsi sebagai batas bawah pada kompleksitas komputasi. Sebagai contoh, hasil "teori-informasi" Yao pada kompleksitas komunikasi {1} menyiratkan batas bawah komputasi pada menentukan apakah dua set sama. Aplikasi kompleksitas komunikasi yang lebih canggih memberikan tradeoff waktu-ruang untuk mesin Turing {2}.
{1} Yao, Andrew Chi-Chih. "Beberapa pertanyaan rumit terkait dengan komputasi distributif (laporan awal)." Prosiding simposium ACM tahunan kesebelas tentang Teori komputasi. ACM, 1979.
{2} Eyal Kushilevitz: Kompleksitas Komunikasi. Kemajuan dalam Komputer 44: 331-360 (1997).
sumber