Saya hanya mencoba untuk menghitung ulang dengan dnorm () log-kemungkinan yang disediakan oleh fungsi logLik dari model lm (dalam R).
Ini berfungsi (hampir sempurna) untuk jumlah data yang tinggi (mis. N = 1000):
> n <- 1000
> x <- 1:n
> set.seed(1)
> y <- 10 + 2*x + rnorm(n, 0, 2)
> mod <- glm(y ~ x, family = gaussian)
> logLik(mod)
'log Lik.' -2145.562 (df=3)
> sigma <- sqrt(summary(mod)$dispersion)
> sum(log(dnorm(x = y, mean = predict(mod), sd = sigma)))
[1] -2145.563
> sum(log(dnorm(x = resid(mod), mean = 0, sd = sigma)))
[1] -2145.563
tetapi untuk dataset kecil ada perbedaan yang jelas:
> n <- 5
> x <- 1:n
> set.seed(1)
> y <- 10 + 2*x + rnorm(n, 0, 2)
>
> mod <- glm(y ~ x, family = gaussian)
> logLik(mod)
'log Lik.' -8.915768 (df=3)
> sigma <- sqrt(summary(mod)$dispersion)
> sum(log(dnorm(x = y, mean = predict(mod), sd = sigma)))
[1] -9.192832
> sum(log(dnorm(x = resid(mod), mean = 0, sd = sigma)))
[1] -9.192832
Karena efek dataset kecil saya pikir itu bisa jadi karena perbedaan estimasi varians residual antara lm dan glm tetapi menggunakan lm memberikan hasil yang sama seperti glm:
> modlm <- lm(y ~ x)
> logLik(modlm)
'log Lik.' -8.915768 (df=3)
>
> sigma <- summary(modlm)$sigma
> sum(log(dnorm(x = y, mean = predict(modlm), sd = sigma)))
[1] -9.192832
> sum(log(dnorm(x = resid(modlm), mean = 0, sd = sigma)))
[1] -9.192832
Dimana saya salah
r
generalized-linear-model
likelihood
lm
Gilles
sumber
sumber
lm()
, Anda menggunakan alih-alih .stats:::logLik.glm
Jawaban:
Theβj Xβ σ ∑ϵ^2in−−−−√ σ^=∑ϵ^2in−2−−−−√ σ2
logLik()
berfungsi memberikan evaluasi log-kemungkinan oleh menggantikan perkiraan ML parameter untuk nilai-nilai parameter yang tidak diketahui. Sekarang, perkiraan kemungkinan maksimum dari parameter regresi ( dalam ) bertepatan dengan estimasi kuadrat-terkecil, tetapi estimasi ML dari adalah , sedangkan Anda menggunakan , itu adalah akar kuadrat dari peta bias estimasi .sumber