Bagaimana cara menguji persamaan simultan dari koefisien yang dipilih dalam model logit atau probit? Apa pendekatan standar dan apa pendekatan canggih?
Bagaimana cara menguji persamaan simultan dari koefisien yang dipilih dalam model logit atau probit? Apa pendekatan standar dan apa pendekatan canggih?
Salah satu pendekatan standar adalah tes Wald . Inilah yang dilakukan perintah Stata test
setelah regresi logit atau probit. Mari kita lihat bagaimana ini bekerja di R dengan melihat contoh:
mydata <- read.csv("http://www.ats.ucla.edu/stat/data/binary.csv") # Load dataset from the web
mydata$rank <- factor(mydata$rank)
mylogit <- glm(admit ~ gre + gpa + rank, data = mydata, family = "binomial") # calculate the logistic regression
summary(mylogit)
Coefficients:
Estimate Std. Error z value Pr(>|z|)
(Intercept) -3.989979 1.139951 -3.500 0.000465 ***
gre 0.002264 0.001094 2.070 0.038465 *
gpa 0.804038 0.331819 2.423 0.015388 *
rank2 -0.675443 0.316490 -2.134 0.032829 *
rank3 -1.340204 0.345306 -3.881 0.000104 ***
rank4 -1.551464 0.417832 -3.713 0.000205 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Katakanlah, Anda ingin menguji hipotesis vs β g r e ≠ β g p a . Ini setara dengan pengujian β g r . Statistik uji Wald adalah:
atau
Kami θ sini adalah β g r e - β g p a dan θ 0 = 0 . Jadi yang kita butuhkan adalah kesalahan standar . Kita dapat menghitung kesalahan standar dengan metode Delta :
Jadi kita juga membutuhkan kovarians dan β g p a . Matriks varians-kovarians dapat diekstraksi dengan perintah setelah menjalankan regresi logistik:vcov
var.mat <- vcov(mylogit)[c("gre", "gpa"),c("gre", "gpa")]
colnames(var.mat) <- rownames(var.mat) <- c("gre", "gpa")
gre gpa
gre 1.196831e-06 -0.0001241775
gpa -1.241775e-04 0.1101040465
Akhirnya, kita dapat menghitung kesalahan standar:
se <- sqrt(1.196831e-06 + 0.1101040465 -2*-0.0001241775)
se
[1] 0.3321951
Jadi nilai Wald Anda adalah
wald.z <- (gre-gpa)/se
wald.z
[1] -2.413564
Untuk mendapatkan nilai- , cukup gunakan distribusi normal standar:
2*pnorm(-2.413564)
[1] 0.01579735
Dalam hal ini kami memiliki bukti bahwa koefisien berbeda satu sama lain. Pendekatan ini dapat diperluas hingga lebih dari dua koefisien.
Menggunakan multcomp
Perhitungan yang agak membosankan ini bisa dilakukan dengan mudah R
menggunakan multcomp
paket. Berikut adalah contoh yang sama seperti di atas tetapi dilakukan dengan multcomp
:
library(multcomp)
glht.mod <- glht(mylogit, linfct = c("gre - gpa = 0"))
summary(glht.mod)
Linear Hypotheses:
Estimate Std. Error z value Pr(>|z|)
gre - gpa == 0 -0.8018 0.3322 -2.414 0.0158 *
confint(glht.mod)
Interval kepercayaan untuk perbedaan koefisien juga dapat dihitung:
Quantile = 1.96
95% family-wise confidence level
Linear Hypotheses:
Estimate lwr upr
gre - gpa == 0 -0.8018 -1.4529 -0.1507
Untuk contoh tambahan multcomp
, lihat di sini atau di sini .
Koefisien regresi logistik ditemukan dengan kemungkinan maksimum. Tetapi karena fungsi kemungkinan melibatkan banyak produk, kemungkinan log dimaksimalkan yang mengubah produk menjadi jumlah. Model yang lebih cocok memiliki kemungkinan log yang lebih tinggi. Model yang melibatkan lebih banyak variabel setidaknya memiliki kemungkinan yang sama dengan model nol. Nyatakan log-likelihood dari model alternatif (model yang mengandung lebih banyak variabel) dengan dan log-likelihood dari model nol dengan L L 0 , statistik uji rasio kemungkinan adalah:
mylogit2 <- glm(admit ~ I(gre + gpa) + rank, data = mydata, family = "binomial")
In our case, we can use logLik
to extract the log-likelihood of the two models after a logistic regression:
L1 <- logLik(mylogit)
L1
'log Lik.' -229.2587 (df=6)
L2 <- logLik(mylogit2)
L2
'log Lik.' -232.2416 (df=5)
The model containing the constraint on gre
and gpa
has a slightly higher log-likelihood (-232.24) compared to the full model (-229.26). Our likelihood ratio test statistic is:
D <- 2*(L1 - L2)
D
[1] 16.44923
We can now use the CDF of the to calculate the -value:
1-pchisq(D, df=1)
[1] 0.01458625
The -value is very small indicating that the coefficients are different.
R has the likelihood ratio test built in; we can use the anova
function to calculate the likelhood ratio test:
anova(mylogit2, mylogit, test="LRT")
Analysis of Deviance Table
Model 1: admit ~ I(gre + gpa) + rank
Model 2: admit ~ gre + gpa + rank
Resid. Df Resid. Dev Df Deviance Pr(>Chi)
1 395 464.48
2 394 458.52 1 5.9658 0.01459 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Again, we have strong evidence that the coefficients of gre
and gpa
are significantly different from each other.
The Score function is the derivative of the log-likelihood function () where are the parameters and the data (the univariate case is shown here for illustration purposes):
This is basically the slope of the log-likelihood function. Further, let be the Fisher information matrix which is the negative expectation of the second derivative of the log-likelihood function with respect to . The score test statistics is:
The score test can also be calculated using anova
(the score test statistics is called "Rao"):
anova(mylogit2, mylogit, test="Rao")
Analysis of Deviance Table
Model 1: admit ~ I(gre + gpa) + rank
Model 2: admit ~ gre + gpa + rank
Resid. Df Resid. Dev Df Deviance Rao Pr(>Chi)
1 395 464.48
2 394 458.52 1 5.9658 5.9144 0.01502 *
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
The conclusion is the same as before.
Note
An interesting relationship between the different test statistics when the model is linear is (Johnston and DiNardo (1997): Econometric Methods): Wald LR Score.
gre
andgpa
? Isn't that testinggre
andgpa
and meanwhile imposemultcomp
Paket - paket membuatnya sangat mudah. Sebagai contoh, coba ini:glht.mod <- glht(mylogit, linfct = c("rank3 - rank4= 0"))
. Tetapi cara yang jauh lebih mudah adalah dengan membuatrank3
tingkat referensi (menggunakanmydata$rank <- relevel(mydata$rank, ref="3")
) dan kemudian hanya menggunakan output regresi normal. Setiap level faktor dibandingkan dengan level referensi. Nilai p untukrank4
perbandingan yang diinginkan.glht
sama untuk saya (sekitarlinfct = c("rank3 - rank4= 0")
hanya menguji satu hipotesis linier sedangkanmcp(rank="Tukey")
menguji semua 6 perbandingan berpasanganrank
. Jadi nilai-p harus disesuaikan untuk beberapa perbandingan. Ini berarti bahwa nilai-p yang menggunakan uji Tukey umumnya lebih tinggi daripada perbandingan tunggal.Anda tidak menentukan variabel Anda, apakah itu biner atau lainnya. Saya pikir Anda berbicara tentang variabel biner. Ada juga versi multinomial dari model probit dan logit.
Secara umum, Anda dapat menggunakan trinitas lengkap dari pendekatan pengujian, yaitu
Uji kemungkinan-Rasio
LM-Test
Wald-Test
Setiap tes menggunakan statistik uji yang berbeda. Pendekatan standar akan mengambil salah satu dari tiga tes. Ketiganya bisa digunakan untuk melakukan tes bersama.
Tes LR menggunakan perbedaan log-kemungkinan model terbatas dan tidak terbatas. Jadi model terbatas adalah model, di mana koefisien yang ditentukan diatur ke nol. Unrestricted adalah model "normal". Tes Wald memiliki keunggulan, yaitu hanya model yang tidak dibatasi yang diperkirakan. Pada dasarnya ia bertanya, apakah batasannya hampir puas jika dievaluasi pada MLE yang tidak dibatasi. Dalam hal tes Lagrange-Pengganda hanya model terbatas yang harus diestimasi. Estimator ML terbatas digunakan untuk menghitung skor dari model yang tidak dibatasi. Skor ini biasanya tidak nol, jadi perbedaan ini adalah dasar dari tes LR. LM-Test dapat dalam konteks Anda juga digunakan untuk menguji heteroskedastisitas.
sumber
Pendekatan standar adalah tes Wald, tes rasio kemungkinan dan tes skor. Asymptotically mereka harus sama. Dalam pengalaman saya, tes rasio kemungkinan cenderung melakukan sedikit lebih baik dalam simulasi pada sampel terbatas, tetapi kasus-kasus di mana hal ini akan menjadi sangat ekstrim (sampel kecil) skenario di mana saya akan mengambil semua tes ini sebagai perkiraan kasar saja. Namun, tergantung pada model Anda (jumlah kovariat, kehadiran efek interaksi) dan data Anda (multikolinearitas, distribusi marginal dari variabel dependen Anda), "kerajaan indah Asymptotia" dapat diperkirakan dengan baik oleh sejumlah pengamatan yang mengejutkan.
Di bawah ini adalah contoh dari simulasi di Stata menggunakan Wald, rasio kemungkinan dan tes skor dalam sampel hanya 150 pengamatan. Bahkan dalam sampel kecil seperti itu, tiga tes menghasilkan nilai-p yang cukup mirip dan distribusi sampel nilai-p ketika hipotesis nol benar tampaknya mengikuti distribusi seragam sebagaimana mestinya (atau setidaknya penyimpangan dari distribusi seragam tidak lebih besar dari yang diharapkan karena keacakan asal-usul dalam percobaan Monte Carlo).
sumber