Menambahkan prediktor regresi linier mengurangi R kuadrat

10

Dataset saya ( ) memiliki variabel dependen (DV), lima variabel "baseline" independen (P1, P2, P3, P4, P5) dan satu variabel independen yang diminati (Q).N10,000

Saya telah menjalankan regresi linear OLS untuk dua model berikut:

DV ~ 1 + P1 + P2 + P3 + P4 + P5
                                  -> R-squared = 0.125

DV ~ 1 + P1 + P2 + P3 + P4 + P5 + Q
                                  -> R-squared = 0.124

Yaitu, menambahkan Q prediktor telah mengurangi jumlah varians yang dijelaskan dalam model linier. Sejauh yang saya mengerti, ini seharusnya tidak terjadi .

Agar jelas, ini adalah nilai R-squared dan tidak disesuaikan dengan nilai R-squared.

Saya telah memverifikasi nilai-nilai R-squared menggunakan Jasp dan Python statsmodels .

Apakah ada alasan saya bisa melihat fenomena ini? Mungkin sesuatu yang berkaitan dengan metode OLS?

Cai
sumber
1
masalah numerik? Jumlahnya cukup dekat satu sama lain ...
@ user2137591 Ini adalah apa yang saya pikirkan, tetapi saya tidak tahu bagaimana memverifikasi ini. Perbedaan absolut dalam nilai R-squared adalah 0,000513569, yang kecil, tetapi tidak yang kecil.
Cai
1
XdetXTXTdet
8
Nilai yang hilang dijatuhkan secara otomatis?
generic_user
1
0,000513569 adalah angka yang sangat kecil: itu adalah perubahan 0,41 persen. Ini sangat mungkin masalah numerik. Apa yang ingin dikatakan oleh Clarinetist adalah bahwa mungkin matriks desain Anda memiliki angka kondisi yang buruk dan ketika pembalikannya secara numerik tidak stabil ...

Jawaban:

25

Mungkinkah Anda memiliki nilai-nilai yang hilang di Qyang dijatuhkan secara otomatis? Itu akan memiliki implikasi pada sampel, membuat dua regresi tidak sebanding.

generic_user
sumber