Mengapa rata-rata aritmatika lebih kecil dari rata-rata distribusi dalam distribusi log-normal?

13

Jadi, saya memiliki proses menghasilkan random log-terdistribusi normal variabel acak X . Berikut adalah fungsi kepadatan probabilitas yang sesuai:

Gambar yang mewakili fungsi kepadatan probabilitas lognormal

Saya ingin memperkirakan distribusi beberapa saat dari distribusi asli itu, katakanlah momen pertama: rata-rata aritmatika. Untuk melakukannya, saya menggambar 100 variabel acak 10.000 kali sehingga saya bisa menghitung 10.000 perkiraan rata-rata aritmatika.

Ada dua cara berbeda untuk memperkirakan itu artinya (setidaknya, itulah yang saya mengerti: saya bisa salah):

  1. dengan secara sederhana menghitung aritmatika berarti cara yang biasa:
    X¯=i=1NXiN.
  2. atau dengan estimasi pertama dan μ dari distribusi normal yang mendasari: μ = N Σ i = 1 log ( X i )σμ dan kemudian mean sebagai ˉ X =exp(μ+1
    μ=i=1Nlog(Xi)Nσ2=i=1N(log(Xi)μ)2N
    X¯=exp(μ+12σ2).

Masalahnya adalah distribusi yang sesuai dengan masing-masing perkiraan ini secara sistematis berbeda:

Kedua estimator memberikan distribusi yang berbeda seperti yang ditunjukkan pada gambar.

Rata-rata "polos" (direpresentasikan sebagai garis putus-putus merah) umumnya memberikan nilai yang lebih rendah daripada yang diperoleh dari bentuk eksponensial (garis dataran hijau). Meskipun kedua cara dihitung pada dataset yang sama persis. Harap dicatat bahwa perbedaan ini sistematis.

Mengapa distribusi ini tidak sama?

JohnW
sumber
apa parameter sejati Anda untuk dan σ ? μσ
Christoph Hanck
dan σ = 1.5 , tetapi harap dicatat bahwa saya tertarik untuk memperkirakan parameter-parameter ini, maka dari itu pendekatan Monte-Carlo bukannya menghitung hal dari angka-angka mentah ini. μ=3σ=1.5
JohnW
tentu, ini untuk mereplikasi hasil Anda.
Christoph Hanck
4
Menariknya, fenomena ini tidak ada hubungannya dengan lognormalitas. Bilangan positif yang diberikan dengan logaritma y i , hal ini juga diketahui mereka aritmatika mean (AM) Σ x i / n tidak pernah kurang dari geometrik mean (GM) mereka exp ( Σ y i / n ) . Di arah lain, AM tidak pernah lebih besar dari GM dikalikan dengan exp ( s 2 y / 2 ) di mana s 2 yxiyixi/nexp(yi/n)exp(sy2/2)sy2 adalah varian dari yi. Dengan demikian, kurva merah putus-putus harus terletak di sebelah kiri kurva hijau solid untuksetiap distribusi orang tua (menggambarkan angka acak positif).
whuber
Jika banyak dari rata-rata datang dari probabilitas kecil dari jumlah besar, rata-rata sampel aritmatik yang terbatas dapat meremehkan rata-rata populasi dengan probabilitas tinggi. (Dengan harapan itu tidak bias, tetapi ada kemungkinan besar dari perkiraan kecil dan kecil dari perkiraan lebih besar.) Pertanyaan ini mungkin juga berhubungan dengan yang ini: stats.stackexchange.com/questions/214733/…
Matthew Gunn

Jawaban:

12

Dua penduga yang Anda bandingkan adalah metode penduga momen (1.) dan MLE (2.), lihat di sini . Keduanya konsisten (jadi untuk besar , mereka dalam arti tertentu mungkin dekat dengan nilai sebenarnya exp [ μ + 1 / 2N ).exp[μ+1/2σ2]

Untuk estimator MM, ini adalah konsekuensi langsung dari Hukum bilangan besar, yang mengatakan bahwa . Untuk MLE, para pemetaan terus menerus teorema menyiratkan bahwa exp [ μ + 1 / 2 σ 2 ] p exp [ μ + 1 / 2 σ 2 ] , sebagai μp μ dan σ 2 X¯pE(Xi)

exp[μ^+1/2σ^2]pexp[μ+1/2σ2],
μ^pμ .σ^2pσ2

Namun, MLE tidak bias.

Bahkan, ketimpangan Jensen mengatakan kepada kita bahwa, untuk kecil, MLE diharapkan menjadi bias ke atas (lihat juga simulasi di bawah ini): μ dan σ 2 adalah (dalam kasus terakhir, hampir, tapi dengan diabaikan Bias untuk N = 100 , karena estimator yang tidak bias membagi dengan N - 1 ) dikenal sebagai estimator yang tidak bias dari parameter distribusi normal μ dan σ 2 (saya menggunakan topi untuk menunjukkan estimator).Nμ^σ^2N=100N1μσ2

Oleh karena itu, . Karena eksponensial adalah fungsi cembung, ini menyiratkan bahwa E [ exp ( μ + 1 / 2 σ 2 ) ] > exp [ E ( μ + 1 / 2 σ 2 ) ] exp [E(μ^+1/2σ^2)μ+1/2σ2

E[exp(μ^+1/2σ^2)]>exp[E(μ^+1/2σ^2)]exp[μ+1/2σ2]

Coba tambah N=100

N=1000

enter image description here

Dibuat dengan:

N <- 1000
reps <- 10000

mu <- 3
sigma <- 1.5
mm <- mle <- rep(NA,reps)

for (i in 1:reps){
  X <- rlnorm(N, meanlog = mu, sdlog = sigma)
  mm[i] <- mean(X)

  normmean <- mean(log(X))
  normvar <- (N-1)/N*var(log(X))
  mle[i] <- exp(normmean+normvar/2)
}
plot(density(mm),col="green",lwd=2)
truemean <- exp(mu+1/2*sigma^2)
abline(v=truemean,lty=2)
lines(density(mle),col="red",lwd=2,lty=2)

> truemean
[1] 61.86781

> mean(mm)
[1] 61.97504

> mean(mle)
[1] 61.98256

exp(μ+σ2/2)

Vt=(σ2+σ4/2)exp{2(μ+12σ2)},
exp{2(μ+12σ2)}(exp{σ2}-1)
exp{σ2}>1+σ2+σ4/2,
sebagai exp(x)=saya=0xsaya/saya! dan σ2>0.

Untuk melihat bahwa MLE memang bias untuk kecil N, Saya ulangi simulasi untuk N <- c(50,100,200,500,1000,2000,3000,5000)dan 50.000 replikasi dan mendapatkan bias simulasi sebagai berikut:

enter image description here

Kami melihat bahwa MLE memang berat sebelah untuk yang kecil N. Saya sedikit terkejut tentang perilaku yang agak tidak menentu dari bias estimator MM sebagai fungsiN. Bias simulasi untuk kecilN=50untuk MM kemungkinan disebabkan oleh pencilan yang mempengaruhi penduga MM yang tidak dicatat lebih besar dari MLE. Dalam satu menjalankan simulasi, perkiraan terbesar ternyata

> tail(sort(mm))
[1] 336.7619 356.6176 369.3869 385.8879 413.1249 784.6867
> tail(sort(mle))
[1] 187.7215 205.1379 216.0167 222.8078 229.6142 259.8727 
Christoph Hanck
sumber
Ah baiklah. Benar-benar tidak terpikir oleh saya bahwa satu metode bisa lebih efisien daripada yang lain mengingat data yang sama. Jadi saya bisa mengatakan bahwa solusi MLE menyatu lebih cepatNdaripada metode lain jika saya mengerti dengan benar. Terima kasih!
JohnW
1
Saya mengedit sedikit tentang bias. UntukN=100 bias memang negatif untuk estimator MM, tetapi itu tidak tampak seperti hasil umum, lihat plot bias sebagai fungsi dari N.
Christoph Hanck
2
Yah, saya terkejut juga bahwa ada perbedaan besar antara kedua metode, namun contoh ini sangat sempurna untuk menunjukkan mengapa "hanya rata-rata barang" bisa mengerikan!
JohnW
1
@ JohnW, saya menambahkan sedikit penjelasan analitis mengapa MLE memiliki varian yang lebih kecil.
Christoph Hanck
1
Perbedaan ini berasal dari fakta bahwa bias adalah masalah sampel yang terbatas, yaitu, ia menghilang sebagai Nberbunyi hingga tak terbatas. Varians asimptotik (seperti namanya) perbandingan hanya menunjukkan apa yang terjadi dalam batas, sebagaiN.
Christoph Hanck