Prinsip Minimax Yao tentang Algoritma Monte Carlo

22

Prinsip Minimax Yao yang terkenal menyatakan hubungan antara kompleksitas distribusi dan kompleksitas acak. Biarkan menjadi masalah dengan himpunan berhingga input dan satu set terbatas algoritma deterministik untuk memecahkan . Juga biarkan menunjukkan distribusi input dan biarkan menunjukkan distribusi probabilitas pada . Kemudian prinsip menyatakan PXAPDRA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
Bukti ini secara langsung mengikuti dari teorema minimum von Neumann untuk game zero-sum.

Sebagian besar prinsip Yao berkaitan dengan algoritma Las Vegas saja, tetapi dapat digeneralisasikan ke algoritma Monte Carlo sebagai berikut.

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
mana costϵ(,) menunjukkan biaya algoritme Monte Carlo yang keliru probabilitas paling banyak ϵ .

Dalam makalah asli Yao , hubungan untuk algoritma Monte Carlo diberikan di Teorema 3 tanpa bukti. Ada petunjuk untuk membuktikannya?

Federico Magallanez
sumber

Jawaban:

6

Ini hanya komentar panjang tentang jawaban Marcos, menggunakan notasinya. Saya tidak bisa mengikuti detail argumennya, dan yang di bawah ini cukup singkat dan mudah.

Dengan rata-rata,

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

Fakta di atas dan ketidaksetaraan Markov menyiratkan .Aβ(2λ)q(A)1/2

Jadi kita dapatkan:

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)
Sasho Nikolov
sumber
8

Saya akan mencobanya. Saya akan menggunakan notasi asli Yao. Dengan cara ini akan lebih mudah untuk kontras dengan makalahnya dan definisinya.

Biarkan menjadi himpunan input hingga, dan biarkan menjadi himpunan terbatas algoritma deterministik yang mungkin gagal memberikan jawaban yang benar untuk beberapa input. Biarkan juga jika memberikan jawaban yang benar untuk , dan sebaliknya. Juga dilambangkan dengan jumlah kueri yang dibuat oleh pada input , atau setara, kedalaman pohon keputusanIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA

Biaya Rata-Rata: Diberikan distribusi probabilitas pada , biaya rata - rata dari algoritma adalah .dIAA0C(A,d)=xId(x)r(A,x)

Kompleksitas Distribusi: Biarkan . Untuk setiap distribusi pada input, biarkan menjadi bagian dari diberikan oleh . Kompleksitas distribusi dengan kesalahan untuk masalah komputasi didefinisikan sebagai .λ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}λPF1,λ(P)=maxdminAβ(λ)C(A,d)

λ -tolerance: Distribusi pada keluarga adalah -tolerant jika .qA0λmaxxIAA0q(A)ϵ(A,x)λ

Biaya yang Diharapkan: Untuk algoritma acak , misalkan menjadi distribusi probabilitas yang toleran pada . Biaya yang diharapkan dari untuk input diberikan adalah .RqλA0RxE(R,x)=AA0q(A)r(A,x)

Kompleksitas Acak: Biarkan . Kompleksitas acak dengan kesalahan adalah .λ[0,1]λF2,λ=minRmaxxIE(R,x)

Sekarang kita siap untuk terjun ke bisnis. Apa yang ingin kita buktikan diberi distribusi pada input dan algoritma acak (yaitu, distribusi pada )dRqA0

Prinsip Minimax Yao untuk Algoritma Montecarlo untuk .

maxxIE(R,x)12minAβ(2λ)C(A,d)
λ[0,1/2]

Saya akan mengikuti pendekatan yang diberikan oleh Fich, Meyer auf der Heide, Ragde dan Wigderson (lihat Lemma 4). Pendekatan mereka tidak menghasilkan karakterisasi untuk algoritma Las Vegas (hanya batas bawah), tetapi cukup untuk tujuan kita. Dari buktinya, mudah dilihat bahwa untuk danA0I

Klaim 1. .maxxIE(R,x)minAA0C(A,d)

Untuk mendapatkan angka yang benar di sana, kami akan melakukan hal serupa. Mengingat bahwa distribusi probabilitas diberikan oleh algoritma acak adalahqRλ -tolerant pada kita memiliki λA0 Jika kita mengganti keluargaA0denganβ(2λ)kita melihatnya

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
A0β(2λ)

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

di mana ketidaksetaraan kedua mengikuti karena , dan ketidaksetaraan terakhir diberikan oleh definisi β ( 2 λ ) di mana penjumlahan dibagi 2 tidak bisa lebih besar dari λ . Oleh karena itu, max x I { Σ A A 0 q ( A ) ε ( A , x ) }1β(2λ)A0β(2λ)λ

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

Dengan mencatat bahwa memetakan ke { 0 , 1 } dan r memetakan ke N dan Klaim 1 di atas, sekarang kita dapat dengan aman mengganti fungsi ϵ dalam ketidaksetaraan di atas dengan r ( A , x ) untuk mendapatkan ketidaksetaraan yang diinginkan.ϵ{0,1}rNϵr(A,x)

Marcos Villagra
sumber
Apakah ada penjelasan singkat dari mana faktor 2 berasal?
Robin Kothari
β(2λ)λ
maxAβ(2λ)){12xId(x),ϵ(A,x)}λ
ϵr
mengenai pertanyaan pertama Anda, saya menambahkan lebih banyak detail.
Marcos Villagra