Berapa banyak kalkulus diperlukan untuk memahami estimasi kemungkinan maksimum?

11

Saya mencoba merencanakan rencana studi untuk belajar MLE. Untuk melakukan ini, saya mencoba mencari tahu apa tingkat minimum kalkulus yang diperlukan untuk memahami MLE.

Apakah cukup untuk memahami dasar-dasar kalkulus (yaitu menemukan fungsi minimum dan maksimum) untuk memahami MLE?

histelheim
sumber
2
Seperti biasa, itu tergantung . Jika Anda hanya mencoba memahami dasar-dasarnya, dapat menemukan ekstrema fungsi memberi Anda cara yang adil (meskipun dalam banyak kasus praktis MLE, L adalah M secara numerik, dalam hal ini Anda memerlukan beberapa keterampilan lain juga. karena beberapa kalkulus dasar).
Glen_b -Reinstate Monica
Terima kasih. Bisakah Anda menjelaskan kasus yang Anda sebutkan secara lebih rinci? Kedengarannya menarik.
histelheim
oke tapi sekarang saya harus menjawabnya. Tunggu sebentar.
Glen_b -Reinstate Monica

Jawaban:

20

Untuk memperluas komentar saya - itu tergantung. Jika Anda hanya mencoba memahami dasar-dasarnya, dapat menemukan ekstrema fungsi memberi Anda cara yang adil (meskipun dalam banyak kasus praktis MLE, kemungkinan dimaksimalkan secara numerik, dalam hal ini Anda memerlukan beberapa keterampilan lain serta beberapa kalkulus dasar).

Saya akan mengesampingkan kasus-kasus sederhana yang bagus di mana Anda mendapatkan solusi aljabar eksplisit. Meski begitu, kalkulus seringkali sangat bermanfaat.

Saya akan menganggap kemerdekaan di seluruh. Mari kita ambil contoh yang paling sederhana dari optimasi 1-parameter. Pertama kita akan melihat kasus di mana kita dapat mengambil turunan dan memisahkan fungsi parameter dan statistik.

Pertimbangkan kerapatanGamma(α,1)

fX(x;α)=1Γ(α)xα1exp(x);x>0;α>0

Kemudian untuk sampel ukuran , kemungkinannya adalahn

L(α;x)=i=1nfX(xi;α)

dan kemungkinan lognya adalah mana . Mengambil turunan,

l(α;x)=i=1nlnfX(xi;α)=i=1nln(1Γ(α)xiα1exp(xi))
=i=1nlnΓ(α)+(α1)lnxixi
=nlnΓ(α)+(α1)Sxnx¯
Sx=i=1nlnxi

ddαl(α;x)=ddα(nlnΓ(α)+(α1)Sxnx¯)
=nΓ(α)Γ(α)+Sx
=nψ(α)+Sx

Jadi jika kita atur ke nol dan coba pecahkan untuk , kita bisa mendapatkan ini: α^

ψ(α^)=lnG(x)

di mana adalah fungsi digamma dan adalah rata- rata geometris . Kita tidak boleh lupa bahwa secara umum Anda tidak bisa hanya mengatur turunan ke nol dan yakin Anda akan menemukan argmax ; Anda masih harus menunjukkan dalam beberapa cara bahwa solusinya adalah maksimum (dalam hal ini adalah). Secara lebih umum, Anda mungkin mendapatkan titik minimum, atau titik-titik horizontal infleksi, dan bahkan jika Anda memiliki maksimum lokal, Anda mungkin tidak memiliki maksimum global (yang saya sentuh mendekati akhir).ψ()G()

Jadi tugas kita sekarang adalah menemukan nilai untuk ituα^

ψ(α^)=g

di mana .g=lnG(x)

Ini tidak memiliki solusi dalam hal fungsi dasar, itu harus dihitung secara numerik; setidaknya kami bisa mendapatkan fungsi parameter di satu sisi dan fungsi data di sisi lain. Ada berbagai algoritma penemuan nol yang dapat digunakan jika Anda tidak memiliki cara eksplisit untuk menyelesaikan persamaan (bahkan jika Anda tanpa turunan, ada bagian biner, misalnya).

Seringkali, tidak sebagus itu. Pertimbangkan kepadatan logistik dengan skala satuan: Argmax dari kemungkinan atau fungsi log-likelihood tidak dapat diperoleh secara aljabar - Anda harus menggunakan metode optimasi numerik. Dalam hal ini, fungsi tersebut berperilaku cukup baik dan metode Newton-Raphson biasanya cukup untuk menemukan estimasi ML dari . Jika turunannya tidak tersedia atau jika Newton-Raphson tidak konvergen, metode optimasi numerik lainnya mungkin diperlukan, seperti golden-section (ini tidak dimaksudkan untuk menjadi ikhtisar dari metode terbaik yang tersedia, hanya menyebutkan beberapa metode Anda lebih kemungkinan akan bertemu di tingkat dasar).

f(x;μ)=14sech2(xμ2).
μμ

Secara umum, Anda bahkan mungkin tidak bisa melakukan itu. Pertimbangkan Cauchy dengan median dan skala satuan:θ

fX(x;θ)=1π(1+(xθ)2).

Secara umum kemungkinan di sini tidak memiliki maksimum lokal yang unik, tetapi beberapa maksimum lokal. Jika Anda menemukan sebuah maksimum lokal, mungkin ada yang lain, lebih besar di tempat lain. (Kadang-kadang orang fokus mengidentifikasi maksimum lokal terdekat dengan median, atau semacamnya.)

Sangat mudah bagi pemula untuk mengasumsikan bahwa jika mereka menemukan titik balik cekung bahwa mereka memiliki argmax fungsi, tetapi selain beberapa mode (sudah dibahas), mungkin ada maxima yang tidak terkait dengan titik balik sama sekali. Mengambil turunan dan menetapkannya ke nol tidak cukup; pertimbangkan memperkirakan parameter untuk seragam pada misalnya.(0,θ)

Dalam kasus lain, ruang parameter mungkin terpisah.

Terkadang menemukan yang maksimal mungkin cukup terlibat.

Dan itu hanya contoh masalah dengan satu parameter. Ketika Anda memiliki banyak parameter, hal-hal menjadi lebih terlibat lagi.

Glen_b -Reinstate Monica
sumber
4

Iya. Tentu saja, kita tidak berbicara tentang fungsi satu dimensi, tetapi fungsi untuk dimaksimalkan (yaitu, kemungkinan), jadi ini sedikit lebih maju daripada yang satu- kasus dimensi.RpR

Beberapa fasilitas dengan logaritma pasti akan membantu, karena memaksimalkan logaritma kemungkinan biasanya lebih mudah daripada memaksimalkan kemungkinan itu sendiri.

Cukup banyak yang bisa dipahami oleh MLE sederhana (matriks informasi, dll.) Jika Anda dapat menangani turunan kedua dari fungsi , yaitu matriks Hessian.RpR

Stephan Kolassa
sumber