Misalkan menjadi keluarga variabel acak iid yang mengambil nilai dalam [ 0 , 1 ] , memiliki mean μ dan varians σ 2 . Interval kepercayaan sederhana untuk rata-rata, menggunakan σ kapan pun diketahui, diberikan oleh P ( | ˉ X - μ | > ε ) ≤ σ 2
Juga, karena terdistribusi secara asimptotik sebagai variabel acak normal standar, distribusi normal kadang-kadang digunakan untuk "membangun" perkiraan interval kepercayaan.
Dalam ujian statistik pilihan ganda, saya harus menggunakan perkiraan ini alih-alih setiap kali n ≥ 30 . Saya selalu merasa sangat tidak nyaman dengan ini (lebih dari yang dapat Anda bayangkan), karena kesalahan perkiraan tidak dihitung.
Mengapa menggunakan perkiraan normal daripada ?
Saya tidak ingin, sekali lagi, menerapkan aturan secara membabi buta . Apakah ada referensi bagus yang dapat mendukung saya dalam penolakan untuk melakukannya dan memberikan alternatif yang sesuai? ( ( 1 ) adalah contoh dari apa yang saya anggap sebagai alternatif yang sesuai.)
Di sini, sementara dan E [ | X | 3 ] tidak diketahui, mereka mudah dibatasi.
Harap perhatikan bahwa pertanyaan saya adalah permintaan referensi terutama tentang interval kepercayaan dan oleh karena itu berbeda dari perbedaan dari pertanyaan yang disarankan sebagai duplikat parsial di sini dan di sini . Tidak dijawab di sana.
Jawaban:
Mengapa menggunakan perkiraan normal?
Sesederhana itu mengatakan bahwa selalu lebih baik menggunakan lebih banyak informasi daripada kurang. Persamaan (1) menggunakan teorema Chebyshev . Catatan, bagaimana ia tidak menggunakan informasi apa pun tentang bentuk distribusi Anda, yaitu berfungsi untuk distribusi apa pun dengan varian yang diberikan. Oleh karena itu, jika Anda menggunakan beberapa informasi tentang bentuk distribusi Anda, Anda harus mendapatkan perkiraan yang lebih baik. Jika Anda tahu bahwa distribusi Anda adalah Gaussian, maka dengan menggunakan pengetahuan ini Anda mendapatkan perkiraan yang lebih baik.
Karena, Anda sudah menerapkan teorema batas pusat, mengapa tidak menggunakan perkiraan Gaussian dari batas? Mereka akan menjadi lebih baik, sebenarnya, lebih ketat (atau lebih tajam) karena perkiraan ini didasarkan pada pengetahuan tentang bentuk yang merupakan informasi tambahan.
Aturan praktis 30 adalah mitos, yang mendapat manfaat dari bias konfirmasi . Itu terus disalin dari satu buku ke buku lainnya. Suatu kali saya menemukan referensi yang menyarankan aturan ini di sebuah makalah pada 1950-an. Seingat saya, itu bukan bukti kuat. Itu semacam studi empiris. Pada dasarnya, satu-satunya alasan penggunaannya adalah karena ini berfungsi. Anda tidak melihatnya sering dilanggar.
UPDATE Cari kertas oleh Zachary R. Smith dan Craig S. Wells " Central Limit Theorem and Sample Size ". Mereka menyajikan studi empiris dari konvergensi ke CLT untuk berbagai jenis distribusi. Keajaiban nomor 30 tidak berfungsi dalam banyak kasus, tentu saja.
sumber
Masalah dengan menggunakan ketidaksetaraan Chebyshev untuk mendapatkan interval untuk nilai sebenarnya, adalah bahwa hal itu hanya memberi Anda batas bawah untuk probabilitas, yang kadang-kadang juga sepele, atau, agar tidak sepele, mungkin memberikan sangat luas interval kepercayaan. Kita punya
Kita melihat bahwa, tergantung juga pada ukuran sampel, jika kita mengurangi "terlalu banyak" kita akan mendapatkan jawaban sepele "probabilitas lebih besar dari nol".ε
Selain itu, apa yang kita dapatkan dari pendekatan ini adalah kesimpulan dari bentuk "" probabilitas jatuh [ ˉ X ± ε ] adalah sama atau lebih besar dari ..."μ [X¯±ε]
Tapi mari kita asumsikan bahwa kita baik sedang dengan ini, dan masing menunjukkan probabilitas minimum yang kita nyaman. Jadi kami maupmin
Dengan ukuran sampel yang kecil dan probabilitas minimum yang diinginkan tinggi, ini dapat memberikan interval kepercayaan lebar yang tidak memuaskan. Misalnya untukpmin=0.9 and n=100 we will get ε≈.316 , which, for example for the variable treated by the OP that is bounded in [0,1] appears to be too big to be useful.
But the approach is valid, and distribution-free, and so there may be instances where it can be useful.
One may want to check also the Vysochanskij–Petunin inequality mentioned in another answer, which holds for continuous unimodal distributions and refines Chebyshev's inequality.
sumber
The short answer is that it can go pretty badly, but only if one or both tails of the sampling distribution is really fat.
This R code generate a million sets of 30 gamma-distributed variables and take their mean; it can be used to get a sense of what the sampling distribution of the mean looks like. If the normal approximation works as intended, the results should be approximately normal with mean 1 and variance
1/(30 * shape)
.f = function(shape){replicate(1E6, mean(rgamma(30, shape, shape)))}
When
shape
is 1.0, the gamma distribution becomes an exponential distribution, which is pretty non-normal. Nevertheless, the non-Gaussian parts mostly average out and so Gaussian approximation isn't so bad:There's clearly some bias, and it would be good to avoid that when possible. But honestly, that level of bias probably won't be the biggest problem facing a typical study.
That said, things can get much worse. With
f(0.01)
, the histogram looks like this:Log-transforming the 30 sampled data points before averaging helps a lot, though:
In general, distributions with long tails (on one or both sides of the distribution) will require the most samples before the Gaussian approximation starts to become reliable. There are even pathological cases where there will literally never be enough data for the Gaussian approximation to work, but you'll probably have more serious problems in that case (because the sampling distribution doesn't have a well-defined mean or variance to begin with).
sumber
Problem with the Chebyshev confidence interval
As mentioned by Carlo, we haveσ2≤14 . This follows from Var(X)≤μ(1−μ) . Therefore a confidence interval for μ is given by
Comparing the lengths of the confidence intervals
Consider the(1−α) -level confidence interval lengths ℓZ(α,n) and ℓC(α,n) obtained using the normal approximation (σ=12 ) and the Chebyshev inequality, repectively. It turns out that ℓC(α,n) is a constant times bigger than ℓZ(α,n) , independently of n . Precisely, for all n ,
In particular, the95% level confidence interval obtained using the Chebyshev inequality is about 2.3 times bigger than the same level confidence interval obtained using the normal approximation.
Using Hoeffding's bound
Hoeffding's bound gives
sumber
curve(sqrt(-log(.025)/2/x), to= 100, col= 'red', xlab= 'n', ylab= 'half interval') #Hoeffding ; curve(qnorm(.975, 0, .5/sqrt(x)), to= 100, add= T, col= 'darkgreen') #normal approximation
let's start with the number 30: it's, as anyone will say, a rule of thumb. but how can we find a number that fits better to our data? It's actually mostly a matter of skewness: even the strangest distribution will fast converge to normal if they are simmetric and continuous, skewed data will be much slower. I remember learning that a binomial distribution can be properly approximated to normal when its variance is greater than 9; for this example it's to be considered that discrete distribution also have the problem that they need great numbers to simulate continuity, but think to this: a simmetric binomial distribution will reach that variance with n = 36, if p = 0.1 instead, n must go up to 100 (variabile trasformation, however, would help a lot)!
If you only want to use variance instead, dropping gaussian approximation, consider Vysochanskij–Petunin inequality over Chebichev's, it needs the assumption of unimodal distribution of the mean, but this is a very safe one with any sample size, I'd say, greater than 2.
sumber