Apa perbedaan antara val_loss
dan loss
selama pelatihan di Keras?
Misalnya
Epoch 1/20
1000/1000 [==============================] - 1s - loss: 0.1760, val_loss: 0.2032
Di beberapa situs saya membaca bahwa pada validasi, dropout tidak berfungsi.
machine-learning
deep-learning
keras
Vladimircape
sumber
sumber
dropout
tidakNone
), dropout hanya diterapkan selama pelatihan (yaitu tidak ada dropout yang diterapkan selama validasi). Dengan demikian, salah satu perbedaan antara kehilangan validasi (val_loss
) dan kehilangan pelatihan (loss
) adalah bahwa, ketika menggunakan dropout, kehilangan validasi bisa lebih rendah dari kehilangan pelatihan (biasanya tidak diharapkan dalam kasus di mana dropout tidak digunakan).Jawaban:
val_loss
adalah nilai fungsi biaya untuk data validasi silang Anda dan kerugian adalah nilai fungsi biaya untuk data pelatihan Anda. Pada data validasi, neuron yang menggunakan drop out tidak menjatuhkan neuron acak. Alasannya adalah bahwa selama pelatihan kami menggunakan drop out untuk menambah kebisingan agar tidak terlalu pas. Selama menghitung validasi silang, kita berada dalam fase mengingat dan tidak dalam fase pelatihan. Kami menggunakan semua kemampuan jaringan.Terima kasih kepada salah satu teman terkasih kami, saya mengutip dan menjelaskan konten dari sini yang bermanfaat.
Seperti yang dapat Anda lihat
fit
metode yang digunakan dalamKeras
memiliki parameter bernama validation_split, yang menentukan persentase data yang digunakan untuk mengevaluasi model yang dibuat setelah setiap zaman. Setelah mengevaluasi model menggunakan jumlah data ini, itu akan dilaporkan olehval_loss
jika Anda telah menetapkan verbose1
; selain itu, sebagaimana ditentukan dengan jelas oleh dokumentasi, Anda dapat menggunakan salah satuvalidation_data
atauvalidation_split
. Data validasi silang digunakan untuk menyelidiki apakah model Anda terlalu sesuai dengan data atau tidak. Inilah yang dapat kita pahami apakah model kita memiliki kemampuan generalisasi atau tidak.sumber