Tidak sesederhana itu. Pertama-tama, SVM adalah, dengan cara, jenis jaringan saraf (Anda dapat mempelajari solusi SVM melalui backpropagation). Lihat Apa * itu * Jaringan Syaraf Tiruan? . Kedua, Anda tidak bisa tahu sebelumnya model mana yang akan bekerja lebih baik, tetapi masalahnya adalah dengan arsitektur neuromorfik sepenuhnya, Anda dapat mempelajari bobot ujung ke ujung, sambil menempelkan SVM atau RF ke aktivasi lapisan tersembunyi terakhir dari CNN. hanya prosedur ad hoc . Ini mungkin berkinerja lebih baik, dan mungkin tidak, kita tidak bisa tahu tanpa pengujian.
Bagian penting adalah bahwa arsitektur convolutional sepenuhnya mampu merepresentasikan pembelajaran, yang berguna untuk berbagai alasan. Untuk sekali, ini dapat mengurangi atau menghilangkan fitur rekayasa sama sekali dalam masalah Anda.
Tentang lapisan FC, secara matematis setara dengan lapisan Konvolusional 1x1. Lihat posting Yann Lecun , yang saya transkrip di bawah:
Dalam Jaring Konvolusional, tidak ada yang namanya "lapisan yang sepenuhnya terhubung". Hanya ada lapisan konvolusi dengan kernel konvolusi 1x1 dan tabel koneksi penuh.
Itu fakta yang terlalu jarang dipahami sehingga ConvNets tidak perlu memiliki input ukuran tetap. Anda dapat melatih mereka pada input yang terjadi untuk menghasilkan vektor output tunggal (tanpa batas spasial), dan kemudian menerapkannya pada gambar yang lebih besar. Alih-alih vektor output tunggal, Anda kemudian mendapatkan peta spasial vektor output. Setiap vektor melihat jendela input di lokasi berbeda pada input.
Dalam skenario itu, "lapisan sepenuhnya terhubung" benar-benar bertindak sebagai konvolusi 1x1.