Dalam uji-t satu sampel, apa yang terjadi jika dalam penaksir varians mean sampel digantikan oleh ?

10

Asumsikan t-test satu-sampel, di mana hipotesis nol adalah . Statistik ini kemudian menggunakan deviasi standar sampel . Dalam mengestimasi , satu membandingkan pengamatan dengan mean sampel :μ=μ0t=x¯μ0s/nssx¯

s=1n1i=1n(xix¯)2 .

Namun, jika kita menganggap diberikan benar, kita juga bisa memperkirakan standar deviasi menggunakan sebagai ganti mean sampel :μ0sμ0x¯

s=1n1i=1n(xiμ0)2 .

Bagi saya, pendekatan ini terlihat lebih alami karena akibatnya kami menggunakan hipotesis nol juga untuk memperkirakan SD. Adakah yang tahu apakah statistik yang dihasilkan digunakan dalam tes atau tahu, mengapa tidak?

Michael
sumber
Saya menindaklanjuti pertanyaan ini karena saya akan mempostingnya dan SE memperingatkan saya. Saya bertanya-tanya apakah ada makalah referensi tentang pertanyaan ini. Secara intuitif, pasti akan menjadi perkiraan yang lebih baik dari , dan distribusi dapat diturunkan (bukan Siswa, mungkin). Referensi apa pun akan dihargai! s2=1n(xiμ0)2σ2x¯μ0s/n
AG

Jawaban:

6

Ada masalah dengan simulasi asli di pos ini, yang semoga sekarang diperbaiki.

Sementara perkiraan standar deviasi sampel cenderung tumbuh bersama dengan pembilang sebagai rata-rata menyimpang dari , ini ternyata tidak memiliki semua yang besar berpengaruh pada daya pada tingkat signifikansi "khas", karena dalam sampel menengah hingga besar, masih cenderung cukup besar untuk ditolak. Dalam sampel yang lebih kecil itu mungkin memiliki beberapa efek, dan pada tingkat signifikansi yang sangat kecil ini bisa menjadi sangat penting, karena itu akan menempatkan batas atas pada kekuatan yang kurang dari 1.μ0s/n

Masalah kedua, mungkin lebih penting pada tingkat signifikansi 'umum', tampaknya pembilang dan penyebut statistik uji tidak lagi independen pada nol (kuadrat berkorelasi dengan estimasi varians) .x¯μ

Ini berarti tes tidak lagi memiliki distribusi-t di bawah nol. Ini bukan kesalahan fatal, tetapi itu berarti Anda tidak bisa hanya menggunakan tabel dan mendapatkan tingkat signifikansi yang Anda inginkan (seperti yang akan kita lihat sebentar lagi). Artinya, tes menjadi konservatif dan ini berdampak pada kekuatan.

Ketika n menjadi besar, ketergantungan ini menjadi lebih sedikit masalah (paling tidak karena Anda dapat memanggil CLT untuk pembilang dan menggunakan teorema Slutsky untuk mengatakan daripada ada distribusi normal asimptotik untuk statistik yang dimodifikasi).

Berikut adalah kurva daya untuk dua sampel t biasa (kurva ungu, uji dua sisi) dan untuk tes menggunakan nilai nol dalam perhitungan (titik biru, diperoleh melalui simulasi, dan menggunakan t-tabel), seperti mean populasi bergerak menjauh dari nilai hipotesis, untuk :μ0sn=10

n = 10

masukkan deskripsi gambar di sini

Anda dapat melihat kurva daya lebih rendah (itu menjadi jauh lebih buruk pada ukuran sampel yang lebih rendah), tetapi banyak dari itu tampaknya karena ketergantungan antara pembilang dan penyebut telah menurunkan tingkat signifikansi. Jika Anda menyesuaikan nilai kritis dengan tepat, akan ada sedikit di antara mereka bahkan pada n = 10.

Dan ini kurva daya lagi, tapi sekarang untukn=30

n = 30

masukkan deskripsi gambar di sini

Ini menunjukkan bahwa pada ukuran sampel yang tidak kecil tidak ada banyak perbedaan di antara mereka, selama Anda tidak perlu menggunakan tingkat signifikansi yang sangat kecil.

Glen_b -Reinstate Monica
sumber
9

Ketika hipotesis nol itu benar, statistik Anda harus serupa dengan statistik uji-t reguler (meskipun dalam menghitung standar deviasi Anda mungkin harus membagi dengan daripada karena Anda tidak menghabiskan derajat kebebasan untuk memperkirakan rata-rata ). Saya berharap itu memiliki sifat yang sama (ukuran yang tepat, kekuatan yang sama) ketika hipotesis nol benar (rata-rata populasi adalah .nn1μ0

Tetapi sekarang pertimbangkan apa yang terjadi ketika hipotesis nol tidak benar. Ini berarti bahwa dalam menghitung kesalahan standar Anda mengurangkan nilai yang bukan rata-rata yang sebenarnya, atau perkiraan rata-rata yang sebenarnya, sebenarnya Anda bisa mengurangi nilai yang bahkan tidak terletak dalam kisaran nilai x. Ini akan membuat deviasi standar Anda lebih besar ( dijamin untuk meminimalkan deviasi standar) karena menjauh dari mean sebenarnya. Jadi ketika nol adalah salah Anda akan meningkatkan pembilang dan penyebut dalam statistik yang akan mengurangi peluang Anda untuk menolak hipotesis nol (dan itu tidak akan didistribusikan sebagai t-distribusi).x¯μ0

Jadi ketika nol adalah benar, kedua cara mungkin akan bekerja, tetapi ketika nol adalah salah, menggunakan akan memberikan kekuatan yang lebih baik (dan mungkin properti lainnya juga), jadi itu lebih disukai. x¯

Greg Snow
sumber