Saya sarankan Anda menggunakan kerangka kerja yang ditemukan di makalah berikut:
Seberapa Jauh Kita Dapat Melampaui Kriptanalisis Linier? , Thomas Baignères, Pascal Junod, Serge Vaudenay, ASIACRYPT 2004.
Hasil penting mengatakan bahwa Anda perlu , di mana D ( D 0n∼1/D(D0||D1) adalah jarak Kullback-Leibler antara dua distribusi D 0 dan D 1 . Memperluas definisi jarak KL, kami melihat bahwa dalam kasus AndaD(D0||D1)D0D1
D(D0||D1)=plogpp+ϵ+(1−p)log1−p1−p−ϵ,
dengan konvensi bahwa .0log0p=0
Ketika , kami menemukan D ( D 0p≫ϵ . Jadi, ketika p ≫ ϵ , kami menemukan bahwa Anda memerlukan n ∼ p ( 1 - p ) / ϵ 2 koin terbalik. Ketika p = 0 , kami menemukan D ( D 0D(D0||D1)≈ϵ2/(p(1−p))p≫ϵn∼p(1−p)/ϵ2p=0 , jadi Anda perlu n ∼ 1 / ϵ membalik koin. Dengan demikian, rumus ini konsisten dengan kasus khusus yang sudah Anda ketahui tentang ... tetapi ia digeneralisasikan ke semua n , ϵ .D(D0||D1)=−log(1−ϵ)≈ϵn∼1/ϵn,ϵ
Untuk pembenaran, lihat kertas.
Saat , pembenarannya mudah dilakukan dengan tangan. Dengan n pengamatan, jumlah kepala adalah Binomial ( n , p ) atau Binomial ( n , p + ϵ ) , jadi Anda ingin mencari yang terkecil n sehingga dua distribusi ini dapat dibedakan.p≫ϵnBinomial(n,p)Binomial(n,p+ϵ)n
Anda dapat memperkirakan keduanya dengan Gaussian dengan mean dan varians yang tepat, dan kemudian menggunakan hasil standar pada kesulitan membedakan dua Gaussians, dan jawabannya harus keluar. Perkiraannya baik-baik saja jika atau lebih.p≥5/n
Secara khusus, ini turun ke membedakan dari N ( μ 1 , σ 2 1 ) di mana μ 0 = p n , μ 1 = p + ϵ ) n , σ 2 0 = p ( 1 - p ) n , σ 2 1 = ( p + ϵ )N(μ0,σ20)N(μ1,σ21)μ0=pnμ1=p+ϵ)nσ20=p(1−p)nσ21=(p+ϵ)(1−p−ϵ)nerfc(z)z=(μ1−μ0)/(σ0+σ1)≈ϵn/2p(1−p)−−−−−−−−−−√z∼1n∼2p(1−p)/ϵ2p≫ϵ
Untuk kasus umum ... lihat kertasnya.