Saya akan melalui blog berikut pada jaringan saraf LSTM: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/
Penulis membentuk kembali vektor input X sebagai [sampel, langkah waktu, fitur] untuk konfigurasi LSTM yang berbeda.
Penulis menulis
Memang, urutan huruf adalah langkah waktu dari satu fitur daripada satu langkah waktu dari fitur yang terpisah. Kami telah memberikan lebih banyak konteks ke jaringan, tetapi tidak lebih banyak urutan seperti yang diharapkan
Apa artinya ini?
sumber
t-n,..., t-2, t-1
untuk memprediksit
.Agak terlambat tetapi untuk berjaga-jaga;
Sebuah Contoh bisa merujuk ke contoh pelatihan individu. Variabel "batch_size" karenanya adalah jumlah sampel yang Anda kirim ke jaringan saraf. Yaitu, berapa banyak contoh berbeda yang Anda berikan sekaligus ke jaringan saraf.
TimeSteps adalah kutu waktu. Berapa lama waktu masing-masing sampel Anda. Misalnya, sampel dapat berisi langkah 128 kali, di mana setiap langkah waktu bisa menjadi 30 detik untuk pemrosesan sinyal. Dalam Natural Language Processing (NLP), langkah waktu dapat dikaitkan dengan karakter, kata, atau kalimat, tergantung pada pengaturan.
Fitur hanyalah jumlah dimensi yang kami makan pada setiap langkah waktu. Misalnya di NLP, sebuah kata dapat direpresentasikan oleh 300 fitur menggunakan word2vec. Dalam hal pemrosesan sinyal, mari kita berpura-pura bahwa sinyal Anda adalah 3D. Artinya, Anda memiliki sinyal X, Y dan Z, seperti pengukuran accelerometer pada setiap sumbu. Ini berarti Anda akan mengirim 3 fitur pada setiap langkah waktu untuk setiap sampel.
Oleh Guillaume
sumber
Jawaban saya dengan sebuah contoh: ["halo ini xyz", "apa kabar", "orang hebat ..."]
dalam hal ini "[sampel, langkah waktu, fitur]" berarti:
sumber