Saya bertanya-tanya dalam situasi apa menguntungkan menumpuk LSTM?
machine-learning
neural-network
deep-learning
lstm
Vadim Smolyakov
sumber
sumber
Jawaban:
Dari Apa keuntungan menumpuk banyak LSTM? (Saya hanya akan memperbarui jawabannya di sana):
sumber
Satu situasi di mana menguntungkan untuk menumpuk LSTM adalah ketika kita ingin mempelajari representasi hierarkis dari data deret waktu kita. Dalam LSTM bertumpuk, setiap lapisan LSTM mengeluarkan urutan vektor yang akan digunakan sebagai input ke lapisan LSTM berikutnya. Hierarki lapisan tersembunyi ini memungkinkan representasi yang lebih kompleks dari data deret waktu kami, menangkap informasi pada skala yang berbeda.
Misalnya, LSTM yang ditumpuk dapat digunakan untuk meningkatkan akurasi dalam klasifikasi deret waktu, seperti prediksi aktivitas, di mana denyut jantung, jumlah langkah, GPS dan sinyal lainnya dapat digunakan untuk memprediksi aktivitas seperti berjalan, berlari, bersepeda, menaiki tangga atau beristirahat. Untuk contoh klasifikasi deret waktu dengan LSTM bertumpuk menggunakan data EEG, lihat notebook ipython berikut .
sumber
Dalam urutan ke urutan model: Pekerjaan jaringan encoder adalah membaca urutan input ke model Seq2Seq kami dan menghasilkan vektor konteks-dimensi tetap C untuk urutan. Untuk melakukannya, encoder akan menggunakan sel jaringan saraf berulang - biasanya LSTM - untuk membaca token input satu per satu. Keadaan akhir sel yang tersembunyi kemudian akan menjadi C. Namun, karena sangat sulit untuk mengompresi urutan panjang sewenang-wenang ke dalam vektor ukuran tetap tunggal (terutama untuk tugas-tugas sulit seperti terjemahan), pembuat enkode biasanya terdiri dari LSTM yang ditumpuk : serangkaian "lapisan" LSTM di mana output setiap lapisan adalah urutan input ke lapisan berikutnya. Status tersembunyi LSTM lapisan terakhir akan digunakan sebagai vektor Konteks.
sumber