Dataset saya ( ) memiliki variabel dependen (DV), lima variabel "baseline" independen (P1, P2, P3, P4, P5) dan satu variabel independen yang diminati (Q).
Saya telah menjalankan regresi linear OLS untuk dua model berikut:
DV ~ 1 + P1 + P2 + P3 + P4 + P5
-> R-squared = 0.125
DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
-> R-squared = 0.124
Yaitu, menambahkan Q prediktor telah mengurangi jumlah varians yang dijelaskan dalam model linier. Sejauh yang saya mengerti, ini seharusnya tidak terjadi .
Agar jelas, ini adalah nilai R-squared dan tidak disesuaikan dengan nilai R-squared.
Saya telah memverifikasi nilai-nilai R-squared menggunakan Jasp dan Python statsmodels .
Apakah ada alasan saya bisa melihat fenomena ini? Mungkin sesuatu yang berkaitan dengan metode OLS?
Jawaban:
Mungkinkah Anda memiliki nilai-nilai yang hilang di
Q
yang dijatuhkan secara otomatis? Itu akan memiliki implikasi pada sampel, membuat dua regresi tidak sebanding.sumber