Pengaturan dasar:
model regresi: mana C adalah vektor variabel kontrol.
Saya tertarik pada dan berharap β 1 dan β 2 menjadi negatif. Namun, ada masalah multikolinieritas dalam model, koefisien korelasi diberikan oleh, corr ( x 1 , x 2 ) = 0,9345, corr ( x 1 , x 3 ) = 0,1765, corr ( x 2 , x 3 ) = 0,3019 .
Jadi dan x 2 sangat berkorelasi, dan mereka seharusnya memberikan informasi yang sama. Saya menjalankan tiga regresi:
- mengecualikan variabel; 2. mengecualikan variabel x 2 ; 3. model asli dengan x 1 dan x 2 .
Hasil:
Untuk regresi 1 dan 2, ini memberikan tanda yang diharapkan untuk dan β 1 masing-masing dan dengan besaran yang sama. Dan β 2 dan β 1 signifikan pada level 10% di kedua model setelah saya melakukan koreksi HAC dalam kesalahan standar. β 3 positif tetapi tidak signifikan pada kedua model.
Tetapi untuk 3, memiliki tanda yang diharapkan, tetapi tanda untuk β 2 positif dengan besarnya dua kali lebih besar dari β 1 pada nilai absolut. Dan kedua β 1 dan β 2 tidak signifikan. Selain itu, besarnya β 3 berkurang hampir setengahnya dibandingkan dengan regresi 1 dan 2.
Pertanyaanku adalah:
Mengapa pada 3, tanda menjadi positif dan jauh lebih besar dari β 1 dalam nilai absolut? Apakah ada alasan statistik bahwa β 2 dapat membalik dan memiliki magnitudo besar? Atau apakah karena model 1 dan 2 mengalami masalah variabel yang dihilangkan yang meningkat β 3 asalkan x 2 berpengaruh positif pada y? Tetapi kemudian dalam model regresi 1 dan 2, baik β 2 dan β 1 harus positif daripada negatif, karena efek total x 1 dan x 2 dalam model regresi 3 adalah positif.
Jawaban sederhananya adalah tidak ada alasan yang mendalam.
Cara untuk memikirkannya adalah bahwa ketika pendekatan multikolinier mendekati sempurna, nilai spesifik yang Anda peroleh dari pemasangan menjadi semakin tergantung pada detail data yang semakin kecil. Jika Anda mengambil sampel jumlah data yang sama dari distribusi dasar yang sama dan kemudian cocok, Anda bisa mendapatkan nilai pas yang sama sekali berbeda.
sumber