Saya membaca komentar di kertas, dan penulis menyatakan bahwa kadang-kadang, meskipun estimator (ditemukan oleh ML atau quasilikelihood maksimum) mungkin tidak konsisten, kekuatan rasio kemungkinan atau uji rasio kuasi-kemungkinan masih dapat menyatu dengan 1 karena jumlah data yang diamati cenderung tidak terbatas (uji konsistensi). Bagaimana dan kapan ini terjadi? Apakah Anda tahu beberapa daftar pustaka?
mathematical-statistics
references
inference
power
consistency
Seorang lelaki tua di laut.
sumber
sumber
Jawaban:
[Saya pikir ini bisa menjadi contoh situasi yang sedang dibahas dalam pertanyaan Anda.]
Ada banyak contoh penduga ML yang tidak konsisten. Inkonsistensi umumnya terlihat dengan berbagai masalah campuran yang sedikit rumit dan masalah sensor.
[Konsistensi tes pada dasarnya hanya bahwa kekuatan tes untuk hipotesis palsu (tetap) meningkat menjadi satu sebagai .]n→∞
Radford Neal memberikan contoh dalam entri blognya pada 2008-08-09 Estimasi Kemungkinan Maksimum yang Tidak Konsisten: Contoh “Biasa” . Ini melibatkan estimasi parameter di:θ
(Neal menggunakan mana saya memiliki ) di mana estimasi ML dari akan cenderung sebagai (dan memang kemungkinan bisa jauh lebih tinggi di puncak dekat 0 daripada pada nilai sebenarnya untuk sampel yang cukup sederhana ukuran). Namun demikian ada kasus bahwa ada puncak di dekat nilai sebenarnya , itu hanya lebih kecil daripada yang dekat 0.θ θ 0 n → ∞ θt θ θ 0 n→∞ θ
Bayangkan sekarang dua kasus yang berkaitan dengan situasi ini:
a) melakukan uji rasio kemungkinan terhadap alternatif ;H 1 : θ < θ 0H0:θ=θ0 H1:θ<θ0
b) melakukan uji rasio kemungkinan terhadap alternatif .H0:θ=θ0 H1:θ≠θ0
Dalam kasus (a), bayangkan bahwa benar (sehingga alternatifnya benar dan adalah sisi lain dari true ). Maka terlepas dari kenyataan bahwa kemungkinan sangat dekat dengan 0 akan melebihi bahwa pada , kemungkinan di tetap melebihi kemungkinan di bahkan dalam sampel kecil, dan rasio akan terus tumbuh lebih besar seperti , sedemikian rupa untuk membuat probabilitas penolakan dalam uji rasio kemungkinan menuju ke 1.θ<θ0 0 θ θ θ θ0 n→∞
Memang, bahkan dalam kasus (b), selama adalah tetap dan dibatasi dari , itu juga harus menjadi kasus bahwa rasio kemungkinan akan tumbuh sedemikian rupa untuk membuat probabilitas penolakan dalam uji rasio kemungkinan juga pendekatan 1.θ0 0
Jadi ini tampaknya akan menjadi contoh estimasi ML yang tidak konsisten, di mana kekuatan LRT tetap harus pergi ke 1 (kecuali ketika ).θ0=0
[Perhatikan bahwa sebenarnya tidak ada yang belum ada dalam jawaban whuber, yang saya pikir merupakan contoh kejelasan, dan jauh lebih sederhana untuk memahami perbedaan antara konsistensi tes dan konsistensi estimator. Fakta bahwa penaksir tidak konsisten dalam contoh spesifik bukan ML tidak terlalu penting sejauh memahami perbedaan itu - dan membawa penaksir tidak konsisten yang secara khusus ML - seperti yang saya coba lakukan di sini - tidak benar-benar mengubah penjelasan dengan cara substantif. Satu-satunya poin nyata dari contoh di sini adalah bahwa saya pikir ini membahas masalah Anda tentang menggunakan estimator ML.]
sumber
Biarkan ditarik iid dari distribusi Normal ( μ , 1 ) . Pertimbangkan estimator(Xn) (μ,1)
Distribusi adalah Normal ( μ + 1 , 1 / √T(X1,…,Xn)=1+X¯ . Konvergen menjadiμ+1≠μ, menunjukkan tidak konsisten.(μ+1,1/n−−√) μ+1≠μ
Dalam membandingkan null hipotesis untuk alternatif sederhana, mengatakan μ = μ A , rasio log kemungkinan akan persis sama dengan LLR berdasarkan ˉ X bukan T . (Akibatnya, T berguna untuk membandingkan hipotesis nol μ + 1 = μ 0 + 1 dengan hipotesis alternatif μ + 1 = μ A + 1. ) Karena tes berdasarkan rata-rata memiliki daya konvergen ke 1 untuk ukuran tes apa pun αμ=μ0 μ=μA X¯ T T μ+1=μ0+1 μ+1=μA+1 1 dan ukuran efek apa pun, kekuatan tes menggunakan T itu sendiri juga menyatu dengan 1 .α>0 T 1
sumber