Setelah bekerja dengan jaringan saraf selama sekitar setengah tahun, saya telah mengalami sendiri apa yang sering diklaim sebagai kelemahan utama mereka, yaitu overfitting dan terjebak dalam minimum lokal. Namun, melalui optimasi hyperparameter dan beberapa pendekatan yang baru ditemukan, ini telah diatasi untuk skenario saya. Dari eksperimen saya sendiri:
- Putus sekolah nampaknya merupakan metode regularisasi yang sangat baik (juga pseudo-ensembler?),
- Normalisasi batch memudahkan pelatihan dan menjaga kekuatan sinyal konsisten di banyak lapisan.
- Adadelta secara konsisten mencapai optimas yang sangat baik
Saya telah bereksperimen dengan SciKit-belajar implementasi SVM bersama eksperimen saya dengan jaringan saraf, tetapi saya menemukan kinerjanya sangat buruk dibandingkan, bahkan setelah melakukan pencarian jaringan untuk hyperparameters. Saya menyadari bahwa ada banyak metode lain, dan SVM dapat dianggap sebagai sub-kelas NN, tetapi tetap saja.
Jadi, untuk pertanyaan saya:
Dengan semua metode baru yang diteliti untuk jaringan saraf, apakah mereka perlahan-lahan - atau akankah mereka - menjadi "unggul" dari metode lain? Jaringan saraf memiliki kelemahan mereka, seperti halnya yang lain, tetapi dengan semua metode baru, apakah kerugian ini telah dimitigasi ke keadaan tidak penting?
Saya menyadari bahwa seringkali "lebih sedikit lebih banyak" dalam hal kompleksitas model, tetapi itu juga dapat dirancang untuk jaringan saraf. Gagasan "tidak makan siang gratis" melarang kita untuk berasumsi bahwa satu pendekatan akan selalu unggul. Hanya saja eksperimen saya sendiri - bersama dengan makalah yang tak terhitung jumlahnya tentang penampilan luar biasa dari berbagai NN - menunjukkan bahwa mungkin ada, setidaknya, makan siang yang sangat murah.
sumber
Jawaban:
Neural Networks memiliki kedatangan singkat lainnya juga.
Menantikan apa yang orang lain katakan di sini.
sumber
Hanya untuk menambah apa yang telah dikatakan dalam jawaban brilian @ MikeWise,
Semua hal yang sama, model pembelajaran yang dalam umumnya memiliki peringkat tertinggi bila dibandingkan dengan algoritma lain ketika ukuran dataset meningkat:
Seperti semuanya, semuanya bermuara pada dataset yang ada, jaringan saraf baik pada dataset lain tetapi pada saat yang sama, mereka akan buruk pada dataset lain. Ketika datang ke masalah tidak terstruktur (misalnya visual, teks, suara ), saat ini jaringan saraf tampaknya menjadi algoritma terbaik. Yang mengatakan, ketika datang ke data terstruktur, pemindaian cepat pada jenis algoritma yang digunakan untuk memenangkan kompetisi ilmu data online mengungkapkan bahwa, yang disebut algoritma pembelajaran mesin seperti XGboost peringkat tertinggi.
Ketika datang ke model lain, rekayasa fitur memainkan peran besar dalam efisiensi algoritma. Fitur Teknik umumnya adalah hal yang sulit untuk dilakukan dan dilakukan dengan benar. Algoritma pembelajaran mendalam tidak memerlukan sebanyak mungkin rekayasa fitur (jika ada sama sekali) dibandingkan dengan algoritma lain, bahkan mereka mempelajari fitur sendiri .
Jika orang-orang Google mengatakan mereka tidak melihat pembelajaran mendalam datang siapa yang mengesampingkan kemungkinan beberapa algoritma pembelajaran mesin keluar dan mengambil alih dunia dengan badai?
Berikut adalah Polling tentang apa yang dikatakan ilmuwan data ketika ditanya: apakah pembelajaran yang mendalam cocok dengan sensasi di aplikasi dunia nyata? .
Bahkan beberapa aplikasi pembelajaran dalam yang populer seperti Google AlphaGo tidak 100% pembelajaran dalam , sebaliknya mereka adalah pembelajaran mendalam, bagian dari "pembelajaran mesin" yang bagus. 2 sen saya adalah, mungkin kita seharusnya tidak mengesampingkan algoritma pembelajaran mesin lainnya.
sumber