Jadi ketika melihat Radial Basis Function Neural Networks, saya perhatikan bahwa orang hanya pernah merekomendasikan penggunaan 1 layer tersembunyi, sedangkan dengan multilayer perceptron neural networks lebih banyak layer dianggap lebih baik.
Mengingat bahwa jaringan RBF dapat dilatih dengan versi back propagation apakah ada alasan mengapa jaringan RBF yang lebih dalam tidak akan berfungsi, atau bahwa lapisan RBF tidak dapat digunakan sebagai lapisan kedua dari belakang atau pertama dalam jaringan MLP yang mendalam? (Saya sedang memikirkan lapisan kedua dari belakang sehingga pada dasarnya bisa dilatih tentang fitur yang dipelajari oleh lapisan MLP sebelumnya)
machine-learning
neural-networks
rbf-network
pengguna1646196
sumber
sumber
Jawaban:
Masalah mendasarnya adalah bahwa RBF adalah a) terlalu nonlinier, b) tidak melakukan reduksi dimensi.
karena a) RBF selalu dilatih dengan k-means daripada gradient descent.
Saya akan mengklaim bahwa keberhasilan utama dalam Deep NN adalah konvens, di mana salah satu bagian penting adalah pengurangan dimensi: walaupun bekerja dengan katakanlah 128x128x3 = 50.000 input, setiap neuron memiliki bidang reseptif terbatas, dan ada lebih sedikit neuron di setiap lapisan .Dalam lapisan yang diberikan dalam MLP- masing-masing neuron mewakili fitur / dimensi) sehingga Anda terus-menerus mengurangi dimensi (dari lapisan ke lapisan).
Meskipun seseorang dapat membuat matriks kovarians RBF adaptif dan demikian juga pengurangan dimensi, ini membuatnya lebih sulit untuk dilatih.
sumber