Buktikan atau bantah: BPP (0.90,0.95) = BPP

8

Saya benar-benar ingin bantuan Anda dengan membuktikan atau menyangkal klaim berikut: . Dalam teori kompleksitas komputasi, BPP, yang berarti waktu polinom probabilitas terbatasi-kesalahan adalah kelas masalah keputusan yang dipecahkan oleh mesin Turing probabilistik dalam waktu polinomial, dengan probabilitas kesalahan paling banyak untuk semua contoh . .BPP(0.90,0.95)=BPP13BPP=BPP(13,23)

Tidak langsung bahwa salah satu set adalah subset dari yang lain, karena jika probabilitas untuk kesalahan lebih kecil dari itu tidak harus lebih kecil dari dan jika itu lebih besar dari tidak harus lebih besar dari .0.913230.905

Saya mencoba menggunakan ketidaksetaraan Chernoff untuk membuktikan klaim, saya tidak yakin persis bagaimana caranya. Saya sangat membutuhkan bantuan Anda. Apakah ada klaim umum tentang hubungan ini yang dapat saya gunakan?

Pembilang
sumber
Saya tidak yakin apa arti notasi BPP (x, y). Apakah string yang tidak dalam bahasa diterima dengan probabilitas tidak lebih besar dari x dan string dalam bahasa diterima dengan probabilitas lebih besar dari y?
Matt Lewis
Tepat, Anda benar.
Numerator
4
Petunjuk: jika Anda menjalankan percobaan pada string yang tidak ada dalam bahasa Anda, berapakah probabilitas bahwa lebih dari mis dari mereka menerima string? Jika Anda menjalankan percobaan pada string yang ada dalam bahasa, berapakah probabilitas bahwa kurang dari dari mereka menolak string? Apa yang terjadi pada probabilitas penerimaan / penolakan Anda jika Anda menjalankan percobaan dan mengatakan 'terima string apa pun yang diterima oleh lebih dari berjalan', seperti ? n.9 n+cnn.95 ncnn.925 nn
Steven Stadnicki
4
Petunjuk Steven Stadnicki adalah untuk menunjukkan bahwa . Untuk arah lain, tunjukkan bahwa untuk setiap . Dengan cara yang sama Anda dapat menunjukkan bahwa untuk konstanta . BPP(0.9,0.95)BPP(1/3,2/3)BPP(1/3,2/3)BPP(ϵ,1ϵ)ϵBPP=BPP(α,β)0<α<β<1
Yuval Filmus

Jawaban:

12

Untuk memperluas komentar saya menjadi jawaban: bentuk multiplikasi dari batas Chernoff mengatakan bahwa jika ekspektasi untuk jumlah variabel biner acak independen adalah , maka probabilitas tersesat ' terlalu jauh dari harapan itu berjalan sebagai: .X=i=0nXiμPr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ

Sekarang, bayangkan prosedur di mana, diberikan string untuk diuji, kami menjalankan percobaan dari kami algoritma (untuk beberapa akan dipilih nanti) dan menerima iff setidaknya dari percobaan tersebut menerima . Kita dapat menggunakan ikatan Chernoff untuk menemukan probabilitas kegagalan dalam hal sebagai berikut:σnBPP(0.90,0.95)n0.925nσn

Biarkan menunjukkan hasil uji coba ke- , dan dengan demikian jumlah uji coba yang berhasil. Kita dapat mengasumsikan secara konservatif bahwa probabilitas kita untuk positif palsu adalah ; ini berarti bahwa jika kita membuat percobaan independen pada string , jumlah keberhasilan yang diharapkan adalah . (Perhatikan bahwa probabilitas positif palsu kurang dari akan mengarah pada nilai yang diharapkan lebih rendah dan dengan demikian bahkan lebih ketat pada perkiraan yang akan datang.) Sekarang, mari kita lihat probabilitas bahwa kita memiliki lebih dari positif palsu (yaitu , ). Kami ambilXiiX=Xi.9nσLμ=E(X)=0.9n.90.925nX>0.925nδ=(0.9250.9)1=136 ; lalu jadi kita harus .(eδ(1+δ)(1+δ)).99961<29993000Pr(X>0.925n)<(29993000)0.9n

Dari sini harus jelas bahwa dengan mengambil cukup besar kita dapat mengurangi probabilitas ini menjadi . Jadi, untuk cukup besar ini , jika kita menerima string hanya jika jumlah percobaan yang sukses pada lebih besar dari , maka probabilitas kita untuk menerima string turun di bawah . Perhatikan bahwa ini konstan , tidak tergantung pada ukuran masalah kita; karena kita menjalankan polinomial kamin<13nσσ.925nσL13nBPP(0.9,0.95)algoritma beberapa kali konstan, total waktu berjalan dari prosedur baru kami masih polinomial. Analisis serupa yang mengarah ke arah lain akan menunjukkan bahwa probabilitas 'false negative' (bahwa untuk string yang ada dalam bahasa kita) akan dibatasi oleh untuk beberapa , dan lagi-lagi kita dapat ambil cukup besar untuk mengikat probabilitas negatif palsu oleh (atau, dengan kata lain, untuk memastikan setidaknya probabilitas menerima pada string ). Ini menunjukkan bahwaX<.925ncncn1323σLBPP(.9,.95)BPP(13,23)BPP, dan komentar Yuval menunjukkan bagaimana membuktikan kesetaraan terbalik melalui prosedur serupa.

Canonically, ini dikenal sebagai amplifikasi probabilitas dan ini merupakan metode yang sangat berguna untuk berurusan dengan kelas probabilistik. Konstanta spesifik kurang penting, jelas, maka fakta bahwa ikatan Chernoff membuat kita mengikat probabilitas 'hasil salah' kita dengan beberapa fungsi eksponensial dari sejumlah uji coba, sehingga mereka dapat dibuat kecil secara sewenang-wenang dengan hanya sejumlah kecil uji coba.

Steven Stadnicki
sumber
2
Anda sebenarnya tidak membutuhkan ikatan Chernoff di sini, cukup Chebyshev.
Yuval Filmus
@YuvalFilmus Oh, tentu saja; karena OP menyebutkan Chernoff secara khusus saya pikir saya akan pergi rute itu, dan selain dari bentuk canggung konstanta itu IMHO sebenarnya sedikit lebih mudah karena Anda tidak perlu menggali hasilnya (langsung karena mungkin) pada varians dari distribusi binomial.
Steven Stadnicki