Misalkan saya memiliki parameter positif untuk mengestimasi dan estimasi yang sesuai yang dihasilkan oleh estimator , yaitu , dan seterusnya.
Saya ingin memperkirakan menggunakan perkiraan yang ada. Jelas penaksir naif bias lebih rendah sebagai
Misalkan saya juga memiliki matriks kovarians dari penaksir yang sesuai . Apakah mungkin untuk mendapatkan estimasi minimum yang tidak bias (atau kurang bias) menggunakan estimasi yang diberikan dan matriks kovarians?
unbiased-estimator
estimators
minimum
Cagdas Ozgenc
sumber
sumber
Jawaban:
Saya tidak memiliki jawaban yang jelas tentang keberadaan estimator yang tidak bias. Namun, dalam hal kesalahan estimasi, memperkirakan adalah masalah yang secara intrinsik sulit secara umum.min(μ1,…,μn)
Misalnya, izinkan , dan . Biarkan menjadi kuantitas target dan adalah perkiraan . Jika kita menggunakan estimator "naif" mana , kemudian, kesalahan estimasi dibatasi oleh hingga konstan. (Perhatikan bahwa kesalahan estimasi untuk setiap adalah ). Tentu saja, jikaμ = ( μ 1 , ... , μ n ) θ = min i μ i θ θ θ = min i ( ˉ Y i ) ¯ Y i = 1Y1,…,YN∼N(μ,σ2I) μ = ( μ1, ... , μn) θ = mntsayaμsaya θ^ θ θ^= mntsaya( Y¯saya) L2E[ θ -θ]2⪅σ2lognYsaya¯= 1N∑Nj = 1Ysaya , j L.2 μiσ2
Oleh karena itu estimator naif adalah minimax optimal hingga konstan, dan tidak ada estimasi yang lebih baik dari dalam hal ini.θ
sumber
EDIT: Berikut ini menjawab pertanyaan yang berbeda dari apa yang diminta - itu dibingkai seolah-olah dianggap acak, tetapi tidak berfungsi ketika dianggap tetap, yang mungkin apa OP ada dalam pikiran. Jika diperbaiki, saya tidak memiliki jawaban yang lebih baik daripadaμ μ min ( μ 1 , . . . , μ n )μ μ μ min(μ^1,...,μ^n)
Jika kami hanya mempertimbangkan taksiran untuk mean dan kovarian, kami dapat memperlakukan sebagai sampel tunggal dari distribusi normal multivarian. Cara sederhana untuk mendapatkan estimasi minimum adalah dengan mengambil sejumlah besar sampel dari , menghitung minimum setiap sampel dan kemudian mengambil rata-rata dari minimum tersebut.M V N ( μ , Σ )(μ1,...,μn) MVN(μ^,Σ)
Prosedur di atas dan batasannya dapat dipahami dalam istilah Bayesian - mengambil notasi dari Wikipedia di MVN , jika adalah kovarians yang diketahui dari estimator dan kami memiliki satu pengamatan, distribusi posterior bersama adalah mana dan muncul dari tempat sebelumnya, sebelum mengamati data yang kita ambil sebelumnya ). Karena Anda mungkin tidak mau menempatkan prior pada , kita dapat mengambil batas sebagai , menghasilkan flat sebelumnya dan posterior menjadiμ ~ M V N ( μ + m λ 0Σ μ∼MVN(μ^+mλ01+m,1n+mΣ) λ0 m μ∼MVN(λ0,m−1Σ μ m→0 μ∼MVN(μ^,Σ) . Namun, mengingat flat sebelumnya kita secara implisit membuat asumsi bahwa elemen berbeda (jika semua bilangan real sama-sama mungkin, mendapatkan nilai yang sama sangat tidak mungkin).μ
Sebuah cepat simulasi menunjukkan bahwa estimasi dengan prosedur ini sedikit perkiraan yang terlalu tinggi ketika unsur-unsur dari berbeda banyak dan meremehkan ketika unsur-unsur yang serupa. Seseorang dapat berargumen bahwa tanpa pengetahuan sebelumnya ini adalah perilaku yang benar. Jika Anda bersedia menyatakan setidaknya beberapa informasi sebelumnya (mis. ), hasilnya bisa menjadi sedikit lebih baik untuk kasus penggunaan Anda.min(μ) μ min(μ) m=0.1
Jika Anda bersedia untuk mengambil lebih banyak struktur, Anda mungkin dapat memilih distribusi yang lebih baik daripada multivariete normal. Juga mungkin masuk akal untuk menggunakan Stan atau sampler MCMC lainnya agar sesuai dengan estimasi . Ini akan memberi Anda satu set sampel yang mencerminkan ketidakpastian dalam estimator itu sendiri, termasuk struktur kovariansnya (mungkin lebih kaya daripada yang dapat disediakan MVN). Sekali lagi Anda dapat menghitung minimum untuk setiap sampel untuk mendapatkan distribusi posterior lebih dari minimum, dan mengambil rata-rata distribusi ini jika Anda memerlukan estimasi titik.μ (μ1,...,μn)
sumber