Dalam regresi, istilah interaksi menghapus kedua efek langsung terkait. Apakah saya menghentikan interaksi atau melaporkan hasilnya? Interaksi itu bukan bagian dari hipotesis asli.
25
Dalam regresi, istilah interaksi menghapus kedua efek langsung terkait. Apakah saya menghentikan interaksi atau melaporkan hasilnya? Interaksi itu bukan bagian dari hipotesis asli.
Jawaban:
Saya pikir ini rumit; seperti yang Anda beri petunjuk, ada 'bahaya moral' di sini: jika Anda tidak melihat interaksi sama sekali, Anda akan bebas dan jelas, tetapi sekarang Anda memiliki ada kecurigaan pengerukan data jika Anda menjatuhkannya.
Kuncinya mungkin adalah perubahan makna efek Anda ketika Anda beralih dari efek utama hanya ke model interaksi. Apa yang Anda dapatkan untuk 'efek utama' sangat tergantung pada bagaimana perawatan dan kontras Anda dikodekan. Dalam R, standarnya adalah kontras pengobatan dengan tingkat faktor pertama (yang dengan nama pertama dalam urutan abjad kecuali Anda telah keluar dari cara Anda untuk kode mereka secara berbeda) sebagai tingkat dasar.
Katakan (untuk kesederhanaan) bahwa Anda memiliki dua level, 'kontrol' dan 'trt', untuk setiap faktor. Tanpa interaksi, arti dari parameter 'v1.trt' (dengan asumsi kontras pengobatan sebagai default dalam R) adalah "perbedaan rata-rata antara 'v1.control' dan 'v1.trt' group"; arti dari parameter 'v2.trt' adalah "perbedaan rata-rata antara 'v2.control' dan 'v2.trt'".
Dengan interaksi, 'v1.trt' adalah perbedaan rata-rata antara 'v1.control' dan 'v1.trt' dalam grup 'v2.control' , dan demikian pula 'v2.trt' adalah perbedaan rata-rata antara grup v2 dalam grup 'v1.control'. Jadi, jika Anda memiliki efek perawatan yang cukup kecil di masing-masing kelompok kontrol, tetapi efek yang besar pada kelompok perlakuan, Anda dapat dengan mudah melihat apa yang Anda lihat.
Satu-satunya cara saya bisa melihat ini terjadi tanpa istilah interaksi yang signifikan, bagaimanapun, adalah jika semua efek cukup lemah (sehingga apa yang Anda maksud dengan "efek menghilang" adalah bahwa Anda beralih dari p = 0,06 ke p = 0,04, melintasi garis signifikansi ajaib).
Kemungkinan lain adalah bahwa Anda 'menggunakan terlalu banyak derajat kebebasan' - yaitu, perkiraan parameter tidak benar-benar berubah banyak, tetapi istilah kesalahan residual cukup meningkat dengan harus memperkirakan 4 lainnya [= (2- 1) * (5-1)] parameter yang istilah penting Anda menjadi tidak signifikan. Sekali lagi, saya hanya berharap ini dengan set data kecil / efek yang relatif lemah.
Salah satu solusi yang mungkin adalah pindah ke jumlah kontras, meskipun ini juga rumit - Anda harus yakin bahwa 'efek rata-rata' bermakna dalam kasus Anda. Hal terbaik adalah memplot data Anda dan melihat koefisien dan memahami apa yang terjadi dalam hal estimasi parameter.
Semoga itu bisa membantu.
sumber
Apakah Anda yakin variabel telah dinyatakan dengan tepat? Pertimbangkan dua variabel bebas dan X 2 . Pernyataan masalah menyatakan bahwa Anda mendapatkan formulir yang sesuaiX1 X2
Ini dapat ditulis ulang
yaitu, jika Anda mengekspresikan kembali variabel Anda di formulir
maka modelnya linier dan kemungkinan memiliki residu homoseksual:
Analisis ini menunjukkan bagaimana mungkin - bahkan mungkin di beberapa aplikasi - untuk memiliki model di mana satu-satunya efek tampaknya interaksi. Ini muncul ketika variabel (independen, dependen, atau keduanya) disajikan kepada Anda dalam bentuk yang tidak sesuai dan logaritma mereka adalah target yang lebih efektif untuk pemodelan. Distribusi variabel dan residu awal memberikan petunjuk yang diperlukan untuk menentukan apakah ini masalahnya: distribusi variabel yang miring dan heteroskedastisitas residual (khususnya, yang memiliki varian yang sebanding dengan nilai prediksi) adalah indikator.
sumber
Ini biasanya memperkenalkan multikolinieritas tinggi karena produk akan sangat berkorelasi dengan kedua variabel asli. Dengan multikolinieritas, estimasi parameter individual sangat bergantung pada variabel lain mana yang dipertimbangkan - seperti dalam kasus Anda. Sebagai tindakan balasan, memusatkan variabel sering mengurangi multikolinieritas ketika interaksi dipertimbangkan.
Saya tidak yakin apakah ini secara langsung berlaku untuk kasus Anda karena Anda tampaknya memiliki prediktor kategori tetapi menggunakan istilah "regresi" alih-alih "ANOVA". Tentu saja kasus terakhir pada dasarnya adalah model yang sama, tetapi hanya setelah memilih skema pengkodean kontras seperti yang dijelaskan Ben.
sumber
Ini mungkin masalah interpretasi, kesalahpahaman tentang apa yang disebut koefisien "efek langsung" sebenarnya.
Dalam model regresi dengan variabel prediktor kontinu dan tanpa istilah interaksi - yaitu, tanpa istilah yang dikonstruksikan sebagai produk istilah lain - koefisien masing-masing variabel adalah kemiringan permukaan regresi ke arah variabel itu. Itu konstan, terlepas dari nilai-nilai variabel, dan jelas merupakan ukuran pengaruh variabel itu.
Dalam model dengan interaksi - yaitu, dengan istilah yang dikonstruksikan sebagai produk istilah lain - interpretasi itu dapat dibuat tanpa kualifikasi lebih lanjut hanya untuk variabel yang tidak terlibat dalam interaksi apa pun. Koefisien variabel yang yang terlibat dalam interaksi adalah kemiringan permukaan regresi ke arah variabel yang ketika nilai-nilai semua variabel yang berinteraksi dengan variabel yang dimaksud adalah nol , dan uji signifikansi koefisien mengacu pada kemiringan permukaan regresi hanya di wilayah ruang prediksi. Karena tidak ada persyaratan bahwa sebenarnya ada data di wilayah ruang tersebut, koefisien efek langsung yang terlihat mungkin memiliki sedikit kemiripan dengan kemiringan permukaan regresi di wilayah ruang prediktor tempat data sebenarnya diamati. Tidak ada "efek langsung" yang sebenarnya dalam kasus-kasus seperti itu; pengganti terbaik mungkin adalah "efek rata-rata": kemiringan permukaan regresi ke arah variabel yang dipertanyakan, diambil pada setiap titik data dan dirata-rata di atas semua titik data. Untuk lebih lanjut tentang ini, lihat Mengapa memusatkan variabel independen mengubah efek utama dengan moderasi?
sumber