Keterbatasan dari algoritma neural net standar (seperti backprop) adalah Anda harus membuat keputusan desain tentang berapa banyak layer tersembunyi dan neuron per layer yang Anda inginkan. Biasanya, tingkat pembelajaran dan generalisasi sangat sensitif terhadap pilihan-pilihan ini. Ini telah menjadi alasan, mengapa algoritma neural net seperti korelasi kaskade telah menghasilkan minat. Dimulai dengan topologi minimal (hanya unit input dan output) dan rekrut unit tersembunyi baru saat proses pembelajaran berlangsung.
Algoritma CC-NN diperkenalkan oleh Fahlman pada tahun 1990, dan versi berulang pada tahun 1991. Apa beberapa algoritma neural net yang lebih baru (pasca 1992) yang dimulai dengan topologi minimal?
Pertanyaan-pertanyaan Terkait
CogSci.SE: Jaringan saraf dengan akun neurogenesis yang masuk akal secara biologis
sumber
Jawaban:
Pertanyaan tersirat di sini adalah bagaimana Anda dapat menentukan topologi / struktur jaringan pembelajaran model mesin atau saraf sehingga model "dari ukuran yang tepat" dan tidak overfitting / kekurangan.
Sejak korelasi kaskade kembali pada tahun 1990, telah ada sejumlah metode untuk melakukan ini sekarang, banyak dari mereka dengan sifat statistik atau komputasi yang jauh lebih baik:
sumber
Bagaimana dengan NeuroEvolution of Augmenting Topologies (NEAT) http://www.cs.ucf.edu/~kstanley/neat.html
Tampaknya berfungsi untuk masalah sederhana, tetapi sangat lambat untuk berkumpul.
sumber
Seperti yang saya pahami puncak dari seni hari ini adalah "Pembelajaran Fitur Tanpa Pengawasan dan Pembelajaran Dalam". Singkatnya: jaringan sedang dilatih dengan cara yang tidak diawasi, setiap lapisan pada satu waktu:
sumber
Sudah ada yang menyebut NEAT (Neural Evolution with Augmenting Topologies). Ada beberapa kemajuan dalam hal ini termasuk spesiasi dan HyperNEAT. HyperNEAT menggunakan jaringan 'meta' untuk mengoptimalkan bobot fenotipe yang terhubung sepenuhnya. Ini memberikan 'kesadaran spasial' jaringan yang sangat berharga dalam masalah pengenalan gambar dan tipe permainan papan. Anda juga tidak terbatas pada 2D. Saya menggunakannya dalam 1D untuk analisis sinyal dan 2D ke atas dimungkinkan tetapi menjadi berat pada persyaratan pemrosesan. Cari kertas karya Ken Stanley, dan ada grup di Yahoo. Jika Anda memiliki masalah yang dapat ditelusuri dengan jaringan, maka NEAT dan / atau HyperNEAT mungkin berlaku.
sumber
Ada makalah yang agak baru tentang topik ini: RP Adams, H. Wallach, dan Zoubin Ghahramani. Mempelajari struktur model grafis yang dalam. Ini sedikit di luar komunitas jaringan saraf biasa dan lebih pada sisi pembelajaran mesin. Makalah ini menggunakan inferensi Bayesian non-parametrik pada struktur jaringan.
sumber