Dalam pembelajaran komputasi, teorema NFL menyatakan bahwa tidak ada pelajar universal. Untuk setiap algoritma pembelajaran, ada distribusi yang menyebabkan pelajar mengeluarkan hipotesis dengan kesalahan besar, dengan probabilitas tinggi (meskipun ada hipotesis kesalahan rendah). Kesimpulannya adalah bahwa untuk belajar, kelas hipotesis atau distribusi harus dibatasi. Dalam buku mereka "Sebuah teori probabilistik pengenalan pola", Devroye et al membuktikan theroem berikut untuk pelajar tetangga K-terdekat:
Di manaAsumsikan μ memiliki kerapatan. jika k → ∞ dan k / n → 0 lalu untuk setiap ϵ > 0 , ada N, st untuk semua n > N:P( Rn- R∗> ϵ ) < 2 e x p ( - Cdn ϵ2)
R∗R n n μ R d C dadalah kesalahan dari aturan -optimal, adalah kesalahan sebenarnya dari output K-NN (probabilitasnya melebihi set pelatihan ukuran ), adalah ukuran probabilitas pada ruang contoh dan adalah beberapa konstanta hanya bergantung pada dimensi euclidean. Oleh karena itu, kita bisa sedekat yang kita inginkan dengan hipotesis terbaik yang ada (bukan yang terbaik di beberapa kelas terbatas), tanpa membuat asumsi tentang pembagian. Jadi saya mencoba memahami bagaimana hasil ini tidak bertentangan dengan theroem NFL? Terima kasih!RnnμRdCd