Estimator Kemungkinan Maksimum untuk Distribusi Binomial Negatif

11

Pertanyaannya adalah sebagai berikut:

Sampel acak dari nilai n dikumpulkan dari distribusi binomial negatif dengan parameter k = 3.

  1. Temukan estimator kemungkinan maksimum dari parameter π.
  2. Temukan rumus asimptotik untuk kesalahan standar estimator ini.
  3. Jelaskan mengapa distribusi binomial negatif akan mendekati normal jika parameter k cukup besar. Apa parameter perkiraan normal ini?

Pekerjaan saya adalah sebagai berikut:
1. Saya merasa seperti ini yang diinginkan tetapi saya tidak yakin apakah saya akurat di sini atau jika saya dapat mengambil ini lebih jauh mengingat informasi yang diberikan?

p(x)=(x1k1)πk(1π)xkL(π)=Πinp(xn|π)(π)=Σinln(p(xn|π))(π)=Σinkπ(xk)(1π)
  1. Saya pikir berikut ini yang diminta. Untuk bagian terakhir saya merasa seperti saya perlu mengganti π^ dengan ''( π )=-kkx

    (π^)=kπ^2+x(1π^)2se(π^)=1(π^)se(π^)=π^2k(1π^)2x
  2. Saya tidak begitu yakin bagaimana membuktikan ini dan saya masih meneliti. Petunjuk atau tautan bermanfaat apa pun akan sangat dihargai. Saya merasa itu terkait baik dengan fakta bahwa distribusi binomial negatif dapat dilihat sebagai kumpulan distribusi geometris atau kebalikan dari distribusi binomial tetapi tidak yakin bagaimana cara mendekatinya.

Bantuan apa pun akan sangat dihargai

Syzorr
sumber
(1) Untuk menemukan estimasi kemungkinan maksimum Anda perlu menemukan di mana fungsi kemungkinan log mencapai maksimum. Menghitung skor (turunan pertama dari fungsi log-likelihood terhadap ) adalah awal - nilai apa yang akan diambil secara maksimal? (Dan ingat Anda tidak perlu memperkirakan .) πkπ^πk
Scortchi - Reinstate Monica
Saya lupa menambahkan turunan dari log-likelihood = 0 untuk tujuan mencari tahu maksimum. Jika saya telah menemukan ini dengan benar (telah mengerjakannya sejak memposting), yang saya miliki adalahkπΣi=0n(xik)(1π)=0
Syzorr
Hati-hati:Perhatikan juga bahwa mulai dari 1.sayai=1nkπi=1n(xik)(1π)= ?i
Scortchi - Reinstate Monica
Dalam (2), jarang terjadi bahwa kebalikan dari perbedaan adalah perbedaan dari kebalikan. Kesalahan ini sangat memengaruhi rumus akhir Anda untuk . se(π^)
whuber

Jawaban:

6

1.

p(x)=(xi1k1)πk(1π)xik

L(π;xi)=i=1n(xi1k1)πk(1π)xik

(π;xi)=i=1n[log(xi1k1)+klog(π)+(xik)log(1π)]d(π;xi)dπ=i=1n[kπ(xik)(1π)]

Setel ini menjadi nol,

nkπ=i=1nxink1π

π^=nki=1nx

    2.

Untuk bagian kedua Anda perlu menggunakan teorema yang , adalah informasi nelayan di sini. Oleh karena itu, standar deviasi dari adalah . Atau Anda menyebutnya sebagai kesalahan standar karena Anda menggunakan CLT di sini.I(θ) θ [n(θ^θ)DN(0,1I(θ))I(θ)θ^[nI(θ)]1/2

Jadi kita perlu menghitung informasi Fisher untuk distribusi binomial negatif.

2log(P(x;π))π2=kπ2xk(1π)2

I(θ)=E(kπ2xk(1π)2)=kπ2+k(1π)(1π)2π

Catatan: untuk PMF binomial negatifE(x)=kπ

Oleh karena itu, kesalahan standar untuk adalahπ^[n(kπ2+k(1π)(1π)2π)]1/2

Sederhanakan kita dapatkan, kita mendapatkanse(π)=π2(π1)kn

    3.

Distribusi geometrik adalah kasus khusus dari distribusi binomial negatif ketika k = 1. Note adalah distribusi geometrikπ(1π)x1

Oleh karena itu, variabel binomial negatif dapat ditulis sebagai jumlah dari k, variabel acak yang terdistribusi secara identik (geometris).

Jadi dengan CLT distribusi binomial negatif akan mendekati normal jika parameter k cukup besar

Jauh di Utara
sumber
1
Silakan baca Topik apa yang bisa saya tanyakan di sini? pada pertanyaan belajar mandiri: daripada mengerjakan pekerjaan rumah orang lain untuk mereka, kami mencoba membantu mereka untuk melakukannya sendiri.
Scortchi
2
Anda tidak perlu mempertimbangkan ukuran sampel ketika menghitung MLE. Anda mungkin membingungkan akun pengamatan independen, masing-masing no. uji coba yang diperlukan untuk mencapai kegagalan ( ) dengan catatan pengamatan tunggal no. uji coba yang diperlukan untuk mencapai kegagalan ( ). Yang pertama memberi kemungkinan ; yang terakhir, . n k x 1 , x 2 , ... , x n k n Σ n i = 1 π ( 1 - π ) x i - k π k ( 1 - π ) n - knnkx1,x2,,xnkni=1nπ(1π)xikπk(1π)nk
Scortchi
1
Anda benar, saya selalu bingung pada bagian ini. Terima kasih banyak. Saya juga mengajukan banyak pertanyaan di forum ini, tetapi saya sangat berharap orang-orang dapat memberi saya jawaban yang sangat terperinci, kemudian saya dapat mempelajarinya sendiri langkah demi langkah.
Deep North
Ya. Saya mengerti mengapa aturan untuk tidak memberikan terlalu banyak detail tetapi jawaban ini dikombinasikan dengan catatan saya sendiri dari perkuliahan telah memungkinkan saya untuk mengikat banyak bagian yang longgar menjadi satu. Saya bermaksud pergi dan berbicara dengan dosen saya hari ini tentang hal ini sehingga saya bisa mendapatkan klarifikasi darinya. Sekarang hari Jumat di sini. Tugas jatuh tempo Senin seperti yang disebutkan di atas. Kami mempelajari ini pada hari Rabu dan hanya memiliki satu contoh menggunakan distribusi binomial. Terima kasih banyak untuk detailnya.
Syzorr
Ada beberapa kesalahan dalam pekerjaan Anda di sana karena saya (θ) = E [] tidak -E [] (yang telah membingungkan saya sampai saya mencari persamaan yang Anda gunakan) Akhirnya telah berakhir denganse(π)=π2(π1)kn
Syzorr