poin minimum lokal vs sadel dalam pembelajaran yang mendalam

18

Saya mendengar Andrew Ng (dalam video yang sayangnya tidak dapat saya temukan lagi) berbicara tentang bagaimana pemahaman tentang minimum lokal dalam masalah pembelajaran yang mendalam telah berubah dalam arti bahwa mereka sekarang dianggap kurang bermasalah karena dalam ruang dimensi tinggi (ditemui dalam pembelajaran mendalam) poin-poin kritis lebih cenderung menjadi poin pelana atau dataran tinggi daripada minimum lokal.

Saya telah melihat makalah (misalnya yang ini ) yang membahas asumsi di mana "setiap minimum lokal adalah minimum global". Asumsi-asumsi ini semuanya agak teknis, tetapi dari apa yang saya mengerti mereka cenderung memaksakan struktur pada jaringan saraf yang membuatnya agak linier.

Apakah ini klaim yang valid bahwa, dalam pembelajaran mendalam (termasuk arsitektur nonlinier), dataran tinggi lebih mungkin daripada minimum lokal? Dan jika demikian, apakah ada intuisi (mungkin matematika) di baliknya?

Apakah ada hal khusus tentang pembelajaran mendalam dan poin pelana?

oW_
sumber
12
Ketika datang ke intuisi matematis mengapa titik sadel lebih mungkin daripada minimum lokal, saya akan memikirkannya dalam hal fitur. Untuk menjadi minimum lokal, itu harus minimum lokal di setiap arah. Sebaliknya, untuk titik sadel, hanya 1 arah yang harus berbeda dari yang lain. Sangat mungkin bahwa 1 atau lebih memiliki perilaku yang berbeda dari yang lain, dibandingkan dengan perilaku yang sama di semua arah.
Paul
3
terima kasih, sekarang setelah Anda mengatakannya, sudah agak jelas ... di sini ada beberapa diskusi menarik tentang topik
oW_
4
Andrew Ng memiliki video tentang "Masalah minimum lokal" pada minggu ke 2 dari kursus Coursera-nya, "Meningkatkan Jaringan Saraf Tiruan: Penyetelan Hyperparameter, Regularisasi dan Optimasi". Mungkin itu yang Anda cari.
mjul
lihat di sini
Media

Jawaban:

7

Ini hanya mencoba menyampaikan intuisi saya, yaitu tidak ada ketelitian. Masalahnya dengan sadel poin adalah bahwa mereka adalah jenis yang optimal yang menggabungkan kombinasi minima dan maxima. Karena jumlah dimensi begitu besar dengan pembelajaran yang dalam, probabilitas bahwa yang optimal hanya terdiri dari kombinasi minima sangat rendah. Ini berarti 'terjebak' dalam minimum lokal jarang terjadi. Dengan risiko terlalu menyederhanakan, lebih sulit untuk 'terjebak' di titik pelana karena Anda dapat 'meluncur ke bawah salah satu dimensi'. Saya pikir video Andrew Ng yang Anda rujuk berasal dari kursus Coursera tentang Deep Learning olehnya.

pengguna41985
sumber
13

Biarkan saya memberikan penjelasan berdasarkan kalkulus multivariat. Jika Anda telah mengambil kursus multivariat, Anda akan pernah mendengar bahwa, diberikan titik kritis (titik di mana gradien nol), syarat untuk titik kritis ini menjadi minimum adalah bahwa matriks Hessian adalah pasti positif. Karena Hessian adalah matriks simetris, kita dapat mendiagonalkannya. Jika kita menulis matriks diagonal yang sesuai dengan Goni sebagai: Hessian yang pasti positif sama dengand1>0,,dn>0.

D=[d1dn]
d1>0,...,dn>0

d1,...,dndsaya1/2dsayadj, karena tingginya non-linearitas dari matriks Hessian, jadi kami akan mengambil probabilitas mereka menjadi positif sebagai peristiwa independen.

P(d1>0,...,dn>0)=P(d1>0)P(dn>0)=12n

1081/2n

Tapi bagaimana dengan maxima?

1/2n

P(sSebuahddle)=1-P(mSebuahxsayamkamum)-P(msayansayamkamum)=1-12n-12n=1-12n-1

n

David Masip
sumber