Mari kita pertimbangkan masalah tentang mengklasifikasikan dataset MNIST.
Berdasarkan laman web MNIST Yann LeCun , 'Ciresan et al.' mendapat tingkat kesalahan 0,23% pada set uji MNIST menggunakan Jaringan Nevoltural Convolutional.
Mari masing menunjukkan MNIST pelatihan ditetapkan sebagai , MNIST uji ditetapkan sebagai D t e s t , hipotesis akhir mereka diperoleh dengan menggunakan D t r a i n sebagai h 1 , dan tingkat kesalahan mereka pada MNIST Uji set menggunakan h 1 sebagai E t e s t ( h 1 ) = 0,0023 .
Dalam pandangan mereka, karena secara acak sampel uji set dari ruang input terlepas dari h 1 , mereka dapat bersikeras bahwa out-of-sampel kinerja kesalahan hipotesis terakhir mereka E o u t ( h 1 ) dibatasi sebagai berikut dari Hoeffding's Inequality P [ | E o u t ( h 1 ) - E t e s t ( h 1 ) | < ϵ | ] dimanaN t e s t =| D t e s t | .
Dengan kata lain, setidaknya probabilitas , E o u t ( h 1 ) ≤ E t e s t ( h 1 ) + √
Mari kita pertimbangkan sudut pandang lain. Misalkan beberapa orang ingin mengklasifikasikan set tes MNIST dengan baik. Jadi dia pertama kali melihat halaman Web MNIST Yann LeCun , dan menemukan hasil berikut yang diperoleh orang lain menggunakan 8 model yang berbeda,
dan memilih modelnya yang berkinerja terbaik pada set uji MNIST di antara 8 model.
Baginya, proses belajar sedang mengambil hipotesis yang dilakukan terbaik pada tes set D t e s t dari satu set hipotesis H t r a i n e d = { h 1 , h 2 , . . , h 8 } .
Hasil ini menyiratkan bahwa mungkin ada overfitting pada set tes jika kami memilih model berkinerja terbaik di antara beberapa model.
adalah hipotesis overfitted pada tes MNIST set.
Consequently, we got two inequalities
Howerver, it is obvious that these two inequalities are incompatible.
Where am I doing wrong? Which one is right and which one is wrong?
If the latter is wrong, what is the right way to apply the VC bound for finite hypothesis sets in this case?