Saya benar-benar ingin bantuan Anda dengan membuktikan atau menyangkal klaim berikut: . Dalam teori kompleksitas komputasi, BPP, yang berarti waktu polinom probabilitas terbatasi-kesalahan adalah kelas masalah keputusan yang dipecahkan oleh mesin Turing probabilistik dalam waktu polinomial, dengan probabilitas kesalahan paling banyak untuk semua contoh . .
Tidak langsung bahwa salah satu set adalah subset dari yang lain, karena jika probabilitas untuk kesalahan lebih kecil dari itu tidak harus lebih kecil dari dan jika itu lebih besar dari tidak harus lebih besar dari .
Saya mencoba menggunakan ketidaksetaraan Chernoff untuk membuktikan klaim, saya tidak yakin persis bagaimana caranya. Saya sangat membutuhkan bantuan Anda. Apakah ada klaim umum tentang hubungan ini yang dapat saya gunakan?
Jawaban:
Untuk memperluas komentar saya menjadi jawaban: bentuk multiplikasi dari batas Chernoff mengatakan bahwa jika ekspektasi untuk jumlah variabel biner acak independen adalah , maka probabilitas tersesat ' terlalu jauh dari harapan itu berjalan sebagai: .X=∑ni=0Xi μ Pr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ
Sekarang, bayangkan prosedur di mana, diberikan string untuk diuji, kami menjalankan percobaan dari kami algoritma (untuk beberapa akan dipilih nanti) dan menerima iff setidaknya dari percobaan tersebut menerima . Kita dapat menggunakan ikatan Chernoff untuk menemukan probabilitas kegagalan dalam hal sebagai berikut:σ n BPP(0.90,0.95) n 0.925n σ n
Biarkan menunjukkan hasil uji coba ke- , dan dengan demikian jumlah uji coba yang berhasil. Kita dapat mengasumsikan secara konservatif bahwa probabilitas kita untuk positif palsu adalah ; ini berarti bahwa jika kita membuat percobaan independen pada string , jumlah keberhasilan yang diharapkan adalah . (Perhatikan bahwa probabilitas positif palsu kurang dari akan mengarah pada nilai yang diharapkan lebih rendah dan dengan demikian bahkan lebih ketat pada perkiraan yang akan datang.) Sekarang, mari kita lihat probabilitas bahwa kita memiliki lebih dari positif palsu (yaitu , ). Kami ambilXi i X=∑Xi .9 n σ∉L μ=E(X)=0.9n .9 0.925n X>0.925n δ=(0.9250.9)−1=136 ; lalu jadi kita harus .(eδ(1+δ)(1+δ))≈.99961<29993000 Pr(X>0.925n)<(29993000)0.9n
Dari sini harus jelas bahwa dengan mengambil cukup besar kita dapat mengurangi probabilitas ini menjadi . Jadi, untuk cukup besar ini , jika kita menerima string hanya jika jumlah percobaan yang sukses pada lebih besar dari , maka probabilitas kita untuk menerima string turun di bawah . Perhatikan bahwa ini konstan , tidak tergantung pada ukuran masalah kita; karena kita menjalankan polinomial kamin <13 n σ σ .925n σ∉L 13 n BPP(0.9,0.95) algoritma beberapa kali konstan, total waktu berjalan dari prosedur baru kami masih polinomial. Analisis serupa yang mengarah ke arah lain akan menunjukkan bahwa probabilitas 'false negative' (bahwa untuk string yang ada dalam bahasa kita) akan dibatasi oleh untuk beberapa , dan lagi-lagi kita dapat ambil cukup besar untuk mengikat probabilitas negatif palsu oleh (atau, dengan kata lain, untuk memastikan setidaknya probabilitas menerima pada string ). Ini menunjukkan bahwaX<.925n cn c n 13 23 σ∈L BPP(.9,.95)⊆BPP(13,23)≡BPP , dan komentar Yuval menunjukkan bagaimana membuktikan kesetaraan terbalik melalui prosedur serupa.
Canonically, ini dikenal sebagai amplifikasi probabilitas dan ini merupakan metode yang sangat berguna untuk berurusan dengan kelas probabilistik. Konstanta spesifik kurang penting, jelas, maka fakta bahwa ikatan Chernoff membuat kita mengikat probabilitas 'hasil salah' kita dengan beberapa fungsi eksponensial dari sejumlah uji coba, sehingga mereka dapat dibuat kecil secara sewenang-wenang dengan hanya sejumlah kecil uji coba.
sumber