Saya membaca sebuah makalah baru-baru ini yang memasukkan keacakan dalam interval kepercayaan dan kredibilitasnya, dan saya bertanya-tanya apakah ini standar (dan, jika demikian, mengapa itu merupakan hal yang masuk akal untuk dilakukan). Untuk mengatur notasi, asumsikan bahwa data kami adalah dan kami tertarik untuk membuat interval untuk parameter . Saya terbiasa dengan interval kepercayaan / kredibilitas yang dibangun dengan membangun fungsi:
dan membiarkan interval kita menjadi .
Ini acak dalam arti tergantung pada data, tetapi tergantung pada data itu hanya interval. Makalah ini malah mendefinisikan
dan juga kumpulan variabel acak seragam iid pada . Ini mendefinisikan interval terkait menjadi . Perhatikan bahwa ini sangat tergantung pada keacakan tambahan, di luar apa pun yang berasal dari data.
Saya sangat ingin tahu mengapa orang melakukan ini. Saya pikir `bersantai 'gagasan interval dari fungsi seperti ke fungsi seperti masuk akal; ini adalah semacam interval kepercayaan tertimbang. Saya tidak tahu referensi untuk itu (dan akan menghargai petunjuk apa pun), tetapi tampaknya cukup alami. Namun, saya tidak bisa memikirkan alasan untuk menambahkan keacakan tambahan. g x
Setiap petunjuk literatur / alasan untuk melakukan ini akan dihargai!
Jawaban:
Prosedur acak kadang-kadang digunakan dalam teori karena menyederhanakan teori. Dalam masalah statistik yang khas, itu tidak masuk akal dalam praktiknya, sementara dalam pengaturan teori permainan bisa masuk akal.
Satu-satunya alasan saya bisa melihatnya untuk menggunakannya dalam praktik, adalah jika entah bagaimana menyederhanakan perhitungan.
Secara teoritis, orang dapat berargumen bahwa itu tidak boleh digunakan, dari prinsip kecukupan : kesimpulan statistik hanya harus didasarkan pada ringkasan data yang memadai, dan pengacakan memperkenalkan ketergantungan pada acak asing yang bukan bagian dari ringkasan data yang cukup.U
Untuk menjawab komentar whuber di bawah ini, yang dikutip di sini: "Mengapa prosedur acak" tidak masuk akal dalam praktik "? Seperti yang telah dicatat oleh orang lain, para peneliti sangat ingin menggunakan pengacakan dalam pembuatan data eksperimental mereka, seperti penugasan pengobatan dan kontrol secara acak. , jadi apa yang sangat berbeda (dan tidak praktis atau tidak menyenangkan) tentang menggunakan pengacakan dalam analisis data selanjutnya? "
Nah, pengacakan percobaan untuk mendapatkan data dilakukan untuk suatu tujuan, terutama untuk memutus rantai sebab akibat. Jika dan kapan itu efektif adalah diskusi lain. Apa yang bisa menjadi tujuan menggunakan pengacakan sebagai bagian dari analisis? Satu-satunya alasan yang pernah saya lihat adalah membuat teori matematika lebih lengkap! Tidak apa-apa selama itu berjalan. Dalam konteks teori permainan, ketika ada musuh yang sebenarnya, pengacakan bantuan saya untuk membingungkannya. Dalam konteks keputusan nyata (menjual, atau tidak menjual?) Keputusan harus diambil, dan jika tidak ada bukti dalam data, mungkin seseorang bisa melempar koin. Namun dalam konteks ilmiah, di mana pertanyaannya adalah apa yang bisa kita pelajaridari data, pengacakan tampaknya tidak pada tempatnya. Saya tidak bisa melihat keuntungan nyata darinya! Jika Anda tidak setuju, apakah Anda memiliki argumen yang dapat meyakinkan seorang ahli biologi atau ahli kimia? (Dan di sini saya tidak berpikir tentang simulasi sebagai bagian dari bootstrap atau MCMC.)
sumber
Idenya mengacu pada pengujian, tetapi mengingat dualitas pengujian dan interval kepercayaan, logika yang sama berlaku untuk CI.
Pada dasarnya, tes acak memastikan bahwa ukuran tertentu dari tes dapat diperoleh untuk eksperimen bernilai diskrit juga.
pbinom(2,10,.5)
sumber