Apakah ada contoh di mana MLE menghasilkan estimasi rata-rata yang bias?

17

Bisakah Anda memberikan contoh penduga MLE dari mean yang bias?

Saya tidak mencari contoh yang merusak penduga MLE secara umum dengan melanggar kondisi keteraturan.

Semua contoh yang dapat saya lihat di internet merujuk pada varians, dan sepertinya saya tidak dapat menemukan apa pun yang terkait dengan mean.

EDIT

@MichaelHardy memberikan contoh di mana kami mendapatkan estimasi yang bias dari rata-rata distribusi seragam menggunakan MLE di bawah model yang diusulkan tertentu.

Namun

https://en.wikipedia.org/wiki/Uniform_distribution_(continuous)#Estimation_of_midpoint

menunjukkan bahwa MLE adalah penaksir rata-rata minimum yang seragam dan seragam, jelas di bawah model lain yang diusulkan.

Pada titik ini, masih belum terlalu jelas bagi saya apa yang dimaksud dengan estimasi MLE jika sangat tergantung pada model yang dihipotesiskan sebagai lawan untuk mengatakan penduga rata-rata sampel yang merupakan model netral. Pada akhirnya saya tertarik untuk memperkirakan sesuatu tentang populasi dan tidak benar-benar peduli tentang estimasi parameter dari model hipotesis.

EDIT 2

Seperti @ChristophHanck menunjukkan model dengan informasi tambahan yang diperkenalkan bias tetapi tidak berhasil mengurangi MSE.

Kami juga memiliki hasil tambahan:

http://www.maths.manchester.ac.uk/~peterf/CSI_ch4_part1.pdf (p61) http://www.cs.tut.fi/~hehu/SSP/lecture6.pdf (slide 2) http: / /www.stats.ox.ac.uk/~marchini/bs2a/lecture4_4up.pdf (slide 5)

"Jika ada penaksir tidak bias yang paling efisien ˆθ dari (ada (yaitu ˆθ tidak bias dan variansnya sama dengan CRLB) maka metode estimasi kemungkinan maksimum akan menghasilkannya."

"Selain itu, jika ada penduga yang efisien, itu adalah penduga ML."

Karena MLE dengan parameter model bebas tidak bias dan efisien, menurut definisi apakah ini "the" Estimator Kemungkinan Maksimum?

EDIT 3

@AlecosPapadopoulos memiliki contoh dengan distribusi Setengah Normal di forum matematika.

/math/799954/can-the-maximum-likelihood-estimator-be-unprice-and-fail-to-achieve-cramer-rao

Itu tidak berlabuh salah satu parameternya seperti dalam kasus seragam. Saya akan mengatakan bahwa menyelesaikannya, meskipun dia belum menunjukkan bias dari estimator rata-rata.

Cagdas Ozgenc
sumber
10
Rata-rata seragam pada nol dan theta.
Christoph Hanck
1
Saya tidak dapat mengikuti perbedaan Anda antara "memperkirakan sesuatu tentang populasi" dan "parameter model hipotesis". Dalam semua statistik parametrik, kami membuat parameter populasi dengan beberapa parameter. Tentu saja, dengan demikian kita dapat mengalami masalah spesifikasi yang salah, tetapi itu tampaknya tidak relevan dengan masalah yang ada.
Christoph Hanck
5
Sebagai contoh, bahwa suatu populasi dapat dicirikan dengan parameter / momennya, seperti mean dan varians (yang akan cukup untuk populasi normal, misalnya). Dan: Saya tidak berpikir bahwa orang-orang kurang lebih menyebalkan dengan Anda daripada dengan orang lain di forum ini.
Christoph Hanck
2
Jika Anda merasa tidak senang dengan sulap tangan beralih antara "parameter" dan "rata-rata", izinkan saya mendefinisikan distribusi non-negatif tertentu dalam hal rata-rata , dengan kepadatan 1μ pada dukungannya[0,2μ12μ ...[0,2μ]
Silverfish
1
Mengenai hasil edit Anda 2, banyak dari hasil ini diperoleh dalam kondisi keteraturan yang tidak memuaskan untuk contoh seragam yang dibahas dalam utas ini, yang ruang sampelnya bergantung pada parameter.
Christoph Hanck

Jawaban:

32

Christoph Hanck belum memposting rincian contoh yang diusulkannya. Saya mengerti maksudnya distribusi seragam pada interval berdasarkan pada sampel awal X 1 , [0,θ], ukuran lebih dari n = 1.X1,,Xnn=1.

Rata adalah .θ/2

MLE dari rata-rata adalah max{X1,,Xn}/2.

Itu bias sejak jadi E ( maks /Pr(max<θ)=1,E(max/2)<θ/2.

PS: Mungkin kita harus mencatat bahwa penaksir tidak bias terbaik dari rata-rata adalahθ/2 tidak sampel berarti, melainkan adalah Sampel rata-rata adalah penaksir burukθ

n+12nmax{X1,,Xn}.
karena untuk beberapa sampel, rata-rata sampel kurang dari 1θ/2dan jelas mustahil untukθ/2kurang dari12max{X1,,Xn},θ/2 akhir PSmax/2.

Saya menduga distribusi Pareto adalah kasus lain. Inilah ukuran probabilitas: Nilai yang diharapkan adalah α

α(κx)α dxx for x>κ.
MLE dari nilai yang diharapkan adalah nαα1κ. manamin=min{X1,
nni=1n((logXi)log(min))min
min=min{X1,,Xn}.

Saya belum menghitung nilai yang diharapkan dari MLE untuk mean, jadi saya tidak tahu apa biasnya.

Michael Hardy
sumber
12
Cagdas, Ini tidak sah untuk meminta contoh balasan dan kemudian menyangkal bahwa Anda akan mengusulkan sesuatu yang lain! Ini seperti meminta contoh buah yang tidak merah, diperlihatkan blueberry, dan kemudian mengatakan itu tidak masuk hitungan karena Anda tidak suka blueberry.
Whuber
7
Itu tidak relevan dengan pertanyaan yang Anda ajukan.
whuber
8
@CagdasOzgenc: Apakah MLE bias atau tidak tergantung pada model. Tidak ada yang namanya MLE tanpa model. Dan jika Anda mengubah model, Anda mengubah MLE.
Michael Hardy
8
@CagdasOzgenc Inilah pertanyaan sokratik: mean sampel adalah penaksir tidak bias tentang apa? Anda memerlukan model untuk memiliki parameter yang akan diestimasi.
Matthew Drury
9
Rata-rata sampel iid adalah penaksir yang tidak bias dari rata-rata populasi, tetapi orang tidak dapat berbicara tentang penaksir kemungkinan-maksimum dari sesuatu tanpa struktur lebih dari apa yang diperlukan untuk berbicara tentang penaksir yang tidak bias terhadap sesuatu.
Michael Hardy
18

Berikut adalah contoh yang menurut saya beberapa mengejutkan:

Dalam regresi logistik, untuk setiap ukuran sampel hingga dengan hasil non-deterministik (yaitu ), setiap estimasi koefisien regresi tidak hanya bias, rata-rata koefisien regresi sebenarnya tidak terdefinisi.0<pi<1

Ini karena untuk setiap ukuran sampel yang terbatas, ada probabilitas positif (walaupun sangat kecil jika jumlah sampel besar dibandingkan dengan jumlah parameter regresi) untuk mendapatkan pemisahan hasil yang sempurna. Ketika ini terjadi, estimasi koefisien regresi akan menjadi atau . Memiliki probabilitas positif menjadi - atau menyiratkan nilai yang diharapkan tidak terdefinisi.

Untuk lebih lanjut tentang masalah khusus ini, lihat efek Hauck-Donner .

Cliff AB
sumber
1
Ini cukup pintar. Saya bertanya-tanya apakah MLE koefisien regresi logistik tidak tergantung pada tidak adanya efek Hauck-Donner?
gung - Reinstate Monica
3
@ung: Jawaban singkat: mengabaikan efek Hauck-Donner, masih ada bias ke atas dalam koefisien regresi absolut (yaitu koefisien negatif memiliki bias ke bawah, positif memiliki bias ke atas). Menariknya, tampaknya ada bias terhadap 0,5 probabilitas estimasi. Saya sudah mulai menulis tentang hal ini di posting ini , tetapi belum memasang hasil saya pada bias estimasi probabilitas.
Cliff AB
10

Meskipun @MichaelHardy telah menyatakan maksudnya, berikut adalah argumen yang lebih terperinci tentang mengapa MLE maksimum (dan karenanya, rata-rata θ/2 , dengan invarian) tidak bias, meskipun dalam model yang berbeda (lihat edit di bawah).

Kami memperkirakan batas atas dari distribusi seragam . Di sini, y ( n ) adalah MLE, untuk sampel acak y . Kami menunjukkan bahwa y ( n ) tidak bias. Cdf-nya adalah F y ( n ) ( xU[0,θ]y(n)yy(n) Jadi, densitasnya adalah fy(n)(x)={n

Fy(n)(x)=Pr{Y1x,,Ynx}=Pr{Y1x}n={0forx<0(xθ)nfor0xθ1forx>θ
itu, E [ Y ( n ) ]
fy(n)(x)={nθ(xθ)n1for0xθ0else
E[Y(n)]=0θxnθ(xθ)n1dx=0θn(xθ)ndx=nn+1θ

abY(1)a

E(Y(1))=na+bn+1
E(Y(n))=nb+an+1
(a+b)/2
Y(1)+Y(n)2
E(Y(1)+Y(n)2)=na+b+nb+a2(n+1)=a+b2

EDIT 2: Untuk menguraikan poin Henry, berikut adalah sedikit simulasi untuk MSE dari penduga rata-rata, menunjukkan bahwa sementara MLE jika kita tidak tahu batas bawahnya nol adalah tidak bias, MSE untuk dua varian identik. , menunjukkan bahwa estimator yang menggabungkan pengetahuan batas bawah mengurangi variabilitas.

theta <- 1
mean <- theta/2
reps <- 500000
n <- 5
mse <- bias <- matrix(NA, nrow = reps, ncol = 2)

for (i in 1:reps){
  x <- runif(n, min = 0, max = theta)
  mle.knownlowerbound <- max(x)/2
  mle.unknownlowerbound <- (max(x)+min(x))/2
  mse[i,1] <- (mle.knownlowerbound-mean)^2
  mse[i,2] <- (mle.unknownlowerbound-mean)^2
  bias[i,1] <- mle.knownlowerbound-mean
  bias[i,2] <- mle.unknownlowerbound-mean

}

> colMeans(mse)
[1] 0.01194837 0.01194413

> colMeans(bias)
[1] -0.083464968 -0.000121968
Christoph Hanck
sumber
Karena Wikipedia mengusulkan model yang berbeda untuk memulai. Di situlah kebingungan saya berada.
Cagdas Ozgenc
a=0(max+0)/2
2
Saya belum mengerjakan detailnya, tetapi MLE dalam model itu bisa tidak bias jika minimum melebih-lebihkan batas bawah dengan jumlah yang sama dengan maksimum meremehkan maksimum, sehingga titik tengah diperkirakan tanpa bias.
Christoph Hanck
4
@CagdasOzgenc: ketidakberpihakan bukan satu-satunya atau bahkan ukuran terpenting dari yang lebih baik . Dengan mengetahui salah satu ujung dukungan secara tepat, Anda mungkin kehilangan keseimbangan antara kesalahan dalam memperkirakan rata-rata, tetapi Anda berakhir dengan (misalnya) perkiraan kisaran yang lebih baik
Henry
6
Pengukur kemungkinan maksimum tidak selalu "terbaik" di semua kriteria untuk ukuran sampel kecil. Terus? Mereka juga tidak berpura-pura. Jika Anda ingin menggunakan penduga yang berbeda untuk masalah Anda yang memiliki sifat lebih baik sesuai dengan beberapa kriteria untuk ukuran sampel yang berada di sekitar ukuran sampel Anda yang sebenarnya, Anda bebas untuk melakukannya. Saya melakukannya, dan juga orang lain. Tidak ada yang mengklaim bahwa menggunakan MLE dibenarkan dalam semua situasi hanya karena itu MLE.
jbowman
5

Melengkapi di sini kelalaian dalam jawaban saya di math.se dirujuk oleh OP,

n

fH(x)=2/π1v1/2exp{x22v}E(X)=2/πv1/2μ,Var(X)=(12π)v

Log-kemungkinan sampel adalah

L(vx)=nln2/πn2lnv12vi=1nxi2

The first derivative with respect to v is

vL(vx)=n2v+12v2i=1nxi2,v^MLE=1ni=1nxi2

so it is a method of moments estimator. It is unbiased since,

E(v^MLE)=E(X2)=Var(X)+[E(X)])2=(12π)v+2πv=v

But, the resulting estimator for the mean is downward biased due to Jensen's inequality

μ^MLE=2/πv^MLEE(μ^MLE)=2/πE(v^MLE)<2/π[E(v^MLE)]=2/πv=μ
Alecos Papadopoulos
sumber
4

The famous Neyman Scott problem has an inconsistent MLE in that it never even converges to the right thing. Motivates the use of conditional likelihood.

Take (Xi,Yi)N(μi,σ2). The MLE of μi is (Xi+Yi)/2 and of σ2 is σ^2=i=1n1nsi2 with si2=(Xiμ^i)2/2+(Yiμ^i)2/2=(XiYi)2/4 which has expected value σ2/4 and so biased by a factor of 2.

AdamO
sumber
2
While this example holds true, this actually defies one of the basic regularity conditions for asymptotic results of MLE's: that k/n0, where k is the number of parameters estimated and n is the sample size.
Cliff AB
1
@CliffAB the assumption violation is that the parametric dimension is not fixed. The dimension of Θ goes to as n. I think that's what you're saying, but don't know what k means. The practical illustration of this example of course is that these results would be biased even in small samples and you have to use conditional likelihood, like a mixed effects model, to estimate σ in this case.
AdamO
3

There is an infinite range of examples for this phenomenon since

  1. the maximum likelihood estimator of a bijective transform Ψ(θ) of a parameter θ is the bijective transform of the maximum likelihood estimator of θ, Ψ(θ^MLE);
  2. the expectation of the bijective transform of the maximum likelihood estimator of θ, Ψ(θ^MLE), E[Ψ(θ^MLE)] is not the bijective transform of the expectation of the maximum likelihood estimator, Ψ(E[θ^MLE]);
  3. most transforms Ψ(θ) are expectations of some transform of the data, h(X), at least for exponential families, provided an inverse Laplace transform can be applied to them.
Xi'an
sumber