MLE = Estimasi Kemungkinan Maksimum
MAP = Maksimum a posteriori
MLE bersifat intuitif / naif karena MLE hanya dimulai dengan probabilitas pengamatan yang diberikan parameter (yaitu fungsi kemungkinan) dan mencoba menemukan parameter terbaik sesuai dengan pengamatan . Tapi itu tidak mempertimbangkan pengetahuan sebelumnya.
MAP tampaknya lebih masuk akal karena mempertimbangkan pengetahuan sebelumnya melalui aturan Bayes.
Ini pertanyaan terkait, tetapi jawabannya tidak menyeluruh. /signals/13174/differences-using-maximum-likelihood-or-maximum-a-posteriori-for-deconvolution-d
Jadi, saya pikir PETA jauh lebih baik. Apakah itu benar? Dan kapan saya harus menggunakan yang mana?
sumber
Seorang Bayesian akan setuju dengan Anda, seorang frequentist tidak akan. Ini adalah masalah pendapat, perspektif, dan filosofi. Saya pikir itu tidak banyak merugikan komunitas statistik untuk mencoba berdebat bahwa satu metode selalu lebih baik daripada yang lain. Banyak masalah akan memiliki solusi Bayesian dan sering yang mirip selama Bayesian tidak memiliki terlalu kuat dari sebelumnya.
sumber
Dengan asumsi Anda memiliki informasi sebelumnya yang akurat, PETA lebih baik jika masalahnya memiliki fungsi nol-satu kerugian pada estimasi. Jika kerugian bukan nol-satu (dan dalam banyak masalah di dunia nyata tidak), maka dapat terjadi bahwa MLE mencapai kerugian yang diharapkan lebih rendah. Dalam kasus ini, akan lebih baik untuk tidak membatasi diri Anda pada MAP dan MLE sebagai satu-satunya pilihan, karena keduanya bersifat suboptimal.
sumber
Jawaban singkat oleh @bean menjelaskan dengan sangat baik. Namun, saya ingin menunjuk ke bagian 1.1 dari makalah Gibbs Sampling untuk yang belum tahu oleh Resnik dan Hardisty yang membawa masalah ini lebih mendalam. Saya menulis beberapa baris dari makalah ini dengan sedikit modifikasi (Jawaban ini mengulangi beberapa hal yang diketahui OP demi kelengkapan)
MLE
PETA
Menangkap
Jadi dengan tangkapan ini, kita mungkin tidak ingin menggunakannya. Juga, seperti yang telah disebutkan oleh bean dan Tim, jika Anda harus menggunakan salah satunya, gunakan MAP jika Anda mendapat sebelumnya. Jika Anda tidak memiliki prior, MAP dikurangi menjadi MLE. Konjugasi prior akan membantu menyelesaikan masalah secara analitis, jika tidak gunakan Gibbs Sampling.
sumber
Seperti kita ketahui bahwaθ^MAP=argmaxθlogP(θ|D)=argmaxθlogP(D|θ)P(θ)P(D)=argmaxθlogP(D|θ)P(θ)=argmaxθlogP(D|θ)log-likelihood+logP(θ)regularizer
Prior diperlakukan sebagai pengatur dan jika Anda mengetahui distribusi sebelumnya, misalnya Gaussin ( ) dalam regresi linier, dan lebih baik menambahkannya regularisasi untuk kinerja yang lebih baik.exp(−λ2θTθ)
sumber
Jika datanya kurang dan Anda memiliki prior - "GO FOR MAP". Jika Anda memiliki banyak data, MAP akan konvergen ke MLE. Jadi dalam kasus banyak skenario data selalu lebih baik untuk melakukan MLE daripada MAP.
sumber