Apa efek dari TIDAK mengubah bobot filter CNN selama backpropagation? Saya hanya mengubah bobot lapisan yang sepenuhnya terhubung saat pelatihan tentang dataset MNIST dan masih mencapai akurasi hampir 99 persen.
machine-learning
cnn
mnist
Abhisek Dash
sumber
sumber
Jawaban:
Dengan tidak mengubah bobot lapisan konvolusional dari CNN, Anda pada dasarnya memberi makan fitur acak classifier (lapisan yang terhubung penuh) (yaitu bukan fitur optimal untuk tugas klasifikasi yang ada).
MNIST adalah tugas klasifikasi gambar yang cukup mudah sehingga Anda dapat memberi cukup banyak input piksel ke classifier tanpa ekstraksi fitur dan masih akan mencetak skor di tahun 90-an yang tinggi. Selain itu, mungkin lapisan penyatuan membantu sedikit ...
Coba latih MLP (tanpa lapisan conv / pool) pada gambar input dan lihat bagaimana peringkatnya. Berikut adalah contoh di mana MLP (1 layer tersembunyi & 1 output) mencapai 98+% tanpa ekstraksi preprocessing / fitur.
sumber