Pertanyaan dasar tentang Matriks Informasi Fisher dan hubungannya dengan Hessian dan kesalahan standar

54

Ok, ini pertanyaan yang cukup mendasar, tapi saya agak bingung. Dalam tesis saya, saya menulis:

Kesalahan standar dapat ditemukan dengan menghitung kebalikan dari akar kuadrat dari elemen diagonal dari (Informasi) matriks Informasi Fisher:

Sejak perintah optimasi di meminimalkan R-logLyang (diamati) Informasi Fisher matriks dapat ditemukan dengan menghitung kebalikan dari Hessian: I(μ,σ2)=H-1

sμ^,σ^2=1saya(μ^,σ^2)
-catatanL.
saya(μ^,σ^2)=H-1

Pertanyaan utama saya: Apakah ini benar yang saya katakan ?

Saya sedikit bingung, karena dalam sumber ini pada halaman 7 dikatakan:

Matriks informasi adalah negatif dari nilai yang diharapkan dari matriks Hessian

(Jadi tidak ada kebalikan dari Goni.)

Sedangkan dalam sumber ini di halaman 7 (catatan kaki 5) dikatakan:

Informasi Fisher yang diamati sama dengan .(-H)-1

(Jadi di sini adalah kebalikannya.)

Saya mengetahui tanda minus dan kapan harus menggunakannya dan kapan tidak, tapi mengapa ada perbedaan dalam mengambil invers atau tidak?

Jen Bohold
sumber
@COOLSerdash Terima kasih atas koreksi dan +1 Anda, tetapi sumber ini: unc.edu/ ~monogan / computing / r / MLE_in_R.pdf halaman 7 dengan jelas mengatakan bahwa informasi Fisher yang diamati sama dengan INVESTE Hessian?
Jen Bohold
@COOLSerdash Ok, Anda mungkin ingin memposting ini sebagai jawaban.
Jen Bohold

Jawaban:

75

Yudi Pawitan menulis dalam bukunya In All Likelihood bahwa turunan kedua dari log-likelihood yang dievaluasi pada perkiraan kemungkinan maksimum (MLE) adalah informasi Fisher yang diamati (lihat juga dokumen ini , halaman 2). Ini adalah apa yang paling optimasi algoritma seperti optimdi Rkembali: Hessian dievaluasi pada MLE. Ketika negatiflog-kemungkinan diminimalkan, Goni negatif dikembalikan. Seperti yang Anda tunjukkan dengan benar, estimasi kesalahan standar MLE adalah akar kuadrat dari elemen diagonal dari kebalikan dari matriks informasi Fisher yang diamati. Dengan kata lain: Akar kuadrat dari elemen diagonal dari kebalikan dari Hessian (atau Hessian negatif) adalah perkiraan kesalahan standar.

Ringkasan

  • Hessian negatif yang dievaluasi di MLE sama dengan matriks informasi Fisher yang diamati yang dievaluasi di MLE.
  • Mengenai pertanyaan utama Anda: Tidak, itu tidak benar bahwa informasi Fisher yang diamati dapat ditemukan dengan membalik Hessian (negatif).
  • Mengenai pertanyaan kedua Anda: Kebalikan dari Hessian (negatif) adalah penduga dari matriks kovarians asimptotik. Oleh karena itu, akar kuadrat dari elemen diagonal dari matriks kovarian adalah penduga kesalahan standar.
  • Saya pikir dokumen kedua yang Anda tautkan salah.

Secara formal

l(θ) saya(θ)(hal×hal)

saya(θ)=-2θsayaθjl(θ),    1saya,jhal
saya(θ^M.L.)
H(θ)=2θsayaθjl(θ),    1saya,jhal

VSebuahr(θ^M.L.)=[saya(θ^M.L.)]-1
θ^M.L.SebuahN(θ0,[saya(θ^M.L.)]-1)
θ0
SE(θ^M.L.)=1saya(θ^M.L.)
COOLSerdash
sumber
1
harus mengatakan "ketika kemungkinan log negatif diminimalkan " (atau dioptimalkan ).
cmo
8
saya(θ)=Esaya(θ)saya(θ)θsaya(θ)=saya(θ)
Scortchi - Reinstate Monica
6

Memperkirakan fungsi kemungkinan mensyaratkan proses dua langkah.

Pertama, kita mendeklarasikan fungsi log-likelihood. kemudian satu mengoptimalkan fungsi log-likelihood. Tidak apa-apa.

-1ll

(-H)-1

Adelino Martins
sumber