Saya baru belajar Mesin, dan saya sedang mencoba mempelajarinya sendiri. Baru-baru ini saya membaca beberapa catatan kuliah dan memiliki pertanyaan mendasar.
Slide 13 mengatakan bahwa "Estimasi Least Square sama dengan Estimasi Kemungkinan Maksimum dalam model Gaussian". Sepertinya itu adalah sesuatu yang sederhana, tetapi saya tidak dapat melihat ini. Bisakah seseorang tolong jelaskan apa yang terjadi di sini? Saya tertarik melihat Matematika.
Saya nanti akan mencoba melihat sudut pandang probabilistik dari regresi Ridge dan Lasso juga, jadi jika ada saran yang akan membantu saya, itu akan sangat dihargai juga.
Jawaban:
Dalam model
di mana , kemungkinan loglikatif untuk sampel subjek adalah (hingga konstanta aditif)Y | X nϵ ∼ N( 0 , σ2) Y| X n
dipandang sebagai fungsi hanya , maximizer adalah persis apa yang diminimalkanβ
apakah ini membuat kesetaraan jelas?
sumber
n/2 log(2 *pi)