Saya memiliki 2 variabel dependen (DV) yang masing-masing skornya mungkin dipengaruhi oleh himpunan 7 variabel independen (IV). DVs adalah kontinu, sedangkan himpunan IV terdiri dari campuran variabel kode kontinu dan biner. (Dalam kode di bawah ini, variabel kontinu ditulis dalam huruf besar dan variabel biner dalam huruf kecil.)
Tujuan dari penelitian ini adalah untuk mengungkap bagaimana DVs ini dipengaruhi oleh variabel IVs. Saya mengusulkan model multivariate multiple regression (MMR) berikut:
my.model <- lm(cbind(A, B) ~ c + d + e + f + g + H + I)
Untuk menginterpretasikan hasil, saya memanggil dua pernyataan:
summary(manova(my.model))
Manova(my.model)
Output dari kedua panggilan disisipkan di bawah dan sangat berbeda. Adakah yang bisa menjelaskan pernyataan mana di antara keduanya yang harus dipilih untuk merangkum hasil MMR dengan benar, dan mengapa? Setiap saran akan sangat dihargai.
Output menggunakan summary(manova(my.model))
pernyataan:
> summary(manova(my.model))
Df Pillai approx F num Df den Df Pr(>F)
c 1 0.105295 5.8255 2 99 0.004057 **
d 1 0.085131 4.6061 2 99 0.012225 *
e 1 0.007886 0.3935 2 99 0.675773
f 1 0.036121 1.8550 2 99 0.161854
g 1 0.002103 0.1043 2 99 0.901049
H 1 0.228766 14.6828 2 99 2.605e-06 ***
I 1 0.011752 0.5887 2 99 0.556999
Residuals 100
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Output menggunakan Manova(my.model)
pernyataan:
> library(car)
> Manova(my.model)
Type II MANOVA Tests: Pillai test statistic
Df test stat approx F num Df den Df Pr(>F)
c 1 0.030928 1.5798 2 99 0.21117
d 1 0.079422 4.2706 2 99 0.01663 *
e 1 0.003067 0.1523 2 99 0.85893
f 1 0.029812 1.5210 2 99 0.22355
g 1 0.004331 0.2153 2 99 0.80668
H 1 0.229303 14.7276 2 99 2.516e-06 ***
I 1 0.011752 0.5887 2 99 0.55700
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
lm
fungsi saya melakukan regresi multivariat hanya dengan menentukan lebih dari satu variabel respose di dalamlm
fungsi. Saya telah belajar bahwa dengan menggunakanlm
fungsi ketika data saya sebenarnya multivariat memberikan hasil yang salah untuk kesalahan standar. Tetapi dalam hal inimy.model <- lm(cbind(A, B) ~ c + d + e + f + g + H + I);
akanvcov(my.model )
meremehkan kesalahan standar ataulm
akan secara cerdas menyesuaikan korelasi antara variabel dependen?Yah, saya masih tidak punya cukup poin untuk mengomentari jawaban sebelumnya dan itulah sebabnya saya menulisnya sebagai jawaban terpisah, jadi tolong maafkan saya. (Jika memungkinkan tolong dorong saya ke atas 50 poin rep;)
Jadi, inilah 2 sen: Pengujian kesalahan tipe I, II dan III pada dasarnya adalah variasi karena data tidak seimbang. (Defn Tidak Seimbang: Tidak memiliki jumlah pengamatan yang sama di setiap strata). Jika data seimbang Pengujian kesalahan Tipe I, II dan III memberikan hasil yang sama persis.
Jadi apa yang terjadi ketika data tidak seimbang?
Pertimbangkan model yang mencakup dua faktor A dan B; Oleh karena itu ada dua efek utama, dan interaksi, AB. SS (A, B, AB) menunjukkan model penuh SS (A, B) menunjukkan model tanpa interaksi. SS (B, AB) menunjukkan model yang tidak memperhitungkan efek dari faktor A, dan seterusnya.
Notasi ini sekarang masuk akal. Ingatlah itu.
Tipe I, juga disebut "kuadrat" jumlah kuadrat:
1)
SS(A) for factor A.
2)
SS(B | A) for factor B.
3)
SS(AB | B, A) for interaction AB.
Jadi kami memperkirakan efek utama dari A pertama mereka, efek dari B diberikan A, dan kemudian memperkirakan interaksi AB diberikan A dan B (Di sinilah menjadi data yang tidak seimbang, perbedaan menendang. Ketika kami memperkirakan efek utama pertama dan kemudian utama dari yang lain dan lalu interaksi dalam "urutan")
Tipe II:
1)
SS(A | B) for factor A.
2)
SS(B | A) for factor B.
Tipe II menguji signifikansi efek utama A setelah B dan B setelah A. Mengapa tidak ada SS (AB | B, A)? Peringatan adalah bahwa metode tipe II dapat digunakan hanya ketika kita sudah menguji interaksi menjadi tidak signifikan. Mengingat bahwa tidak ada interaksi (SS (AB | B, A) tidak signifikan) tes tipe II memiliki kekuatan yang lebih baik daripada tipe III
Tipe III:
1)
SS(A | B, AB) for factor A.
2)
SS(B | A, AB) for factor B.
Jadi kami menguji interaksi selama tipe II dan interaksi signifikan. Sekarang kita perlu menggunakan tipe III karena memperhitungkan istilah interaksi.
Seperti yang sudah dikatakan @caracal, Ketika data seimbang, faktor-faktornya ortogonal, dan tipe I, II dan III semuanya memberikan hasil yang sama. Saya harap ini membantu !
Pengungkapan: Sebagian besar bukan pekerjaan saya sendiri. Saya menemukan halaman luar biasa ini ditautkan dan terasa seperti merebusnya lebih jauh untuk membuatnya lebih sederhana.
sumber