Alasan intuitif mengapa Fisher Information of Binomial berbanding terbalik dengan

12

Ini membingungkan / mengejutkan saya bahwa Binomial memiliki varian yang sebanding dengan . Secara setara, informasi Fisher sebanding dengan 1p(1p) . Apa alasannya? Mengapa Informasi Fisher diminimalkan padap=0,5? Artinya, mengapa inferensi paling sulit padap=0,5?1p(1p)p=0.5p=0.5

Konteks:

Saya sedang mengerjakan kalkulator ukuran sampel, dan rumus untuk , ukuran sampel yang dibutuhkan, adalah faktor peningkatan p ( 1 - p ) , hasil estimasi varians dalam derivasi.Np(1p)

Cam.Davidson.Pilon
sumber
3
Varians dari variabel acak Bernoulli dengan parameter adalah p ( 1 - p ) dan variabel acak binomial, yang merupakan jumlah dari variabel independen N Bernoulli, memiliki varian N p ( 1 - p ) , yang merupakan jumlah dari N varian. Berkenaan dengan mengapa p ( 1 - p ) , anggap varians sebagai momen inersia tentang pusat massa massa p dan 1 - p pada 1pp(1p)NNp(1p)N p(1p)p1p1dan masing-masing. 0
Dilip Sarwate
Ya, saya mengatakan sebanding dengan , mengabaikan N . Bisakah Anda menguraikan bagian kedua Anda, sepertinya perspektif yang menarik. p(1p)N
Cam.Davidson.Pilon

Jawaban:

13

Untuk melihat, secara intuitif, bahwa varians dimaksimalkan pada , ambil p sama dengan 0,99 (resp. P = 0,01 ). Kemudian sampel dari X Bernoulli ( p ) kemungkinan akan berisi banyak 1 's (resp. 0 's) dan hanya beberapa 0 's (resp. 1 's). Tidak banyak variasi di sana.p=0.5p0.99p=0.01XBernoulli(p)1001

okram
sumber
Itu benar. Mungkin yang harus saya tanyakan adalah Mengapa Informasi Fisher diminimalkan pada ? p=0.5, yaitu mengapa inferensi paling sulit pada ? Saya akan memperbarui pertanyaan saya untuk mencerminkan hal itu. p=0.5
Cam.Davidson.Pilon
3
Sekali lagi dengan cara yang sangat intuitif: semakin banyak variasi, semakin banyak informasi yang Anda butuhkan.
ocram
9

pp^pp

Saya pikir intuisi lebih mudah bila dilihat dari segi varians.

pp

Var(p^)=p(1p)/nnpp

ymasukkan deskripsi gambar di sini

Fungsi probabilitas yang sesuai: masukkan deskripsi gambar di sini

Dalam setiap kasus perhatikan garis-garis yang menandai nilai tengah. Ketika garis rata-rata menjadi lebih 'macet' terhadap penghalang, titik di bawah rata-rata hanya bisa mendapatkan jalan kecil di bawah.

p=12

masukkan deskripsi gambar di sini

p^p

[Bentuk intuisi ini tidak memberi tahu kita mengapa ia mengambil bentuk fungsional yang tepat itu, tetapi ia menjelaskan mengapa varians harus kecil di dekat ujungnya, dan semakin kecil semakin dekat ke ujung yang Anda tuju.]

Glen_b -Reinstate Monica
sumber
Akibatnya, poin di atas rata-rata tidak bisa terlalu jauh di atas rata-rata (karena jika tidak berarti akan bergeser!). Di dekat p = 12 titik akhir tidak benar-benar "mendorongnya" dengan cara yang sama. Terlalu sempurna. Ini penjelasan yang bagus.
Cam.Davidson.Pilon
7

Informasi Fisher adalah varian dari fungsi skor. Dan itu terkait dengan entropi. Untuk uji coba Bernoulli kami mendapatkan sedikit untuk setiap uji coba. Jadi Informasi Fisher ini memiliki sifat yang mirip dengan Entropi Shannon, seperti yang kita harapkan. Secara khusus entropi memiliki maksimum pada 1/2 dan informasi memiliki minimum pada 1/2.

James
sumber
Ah, perspektif hebat lainnya. Saya tidak memikirkan hal ini dari sudut pandang entropik!
Cam.Davidson.Pilon