Mengapa residu dalam regresi linier selalu berjumlah nol ketika intersep dimasukkan?

14

Saya mengambil kursus tentang model regresi dan salah satu properti yang disediakan untuk regresi linier adalah bahwa residual selalu berjumlah nol ketika intersep dimasukkan.

Adakah yang bisa memberikan penjelasan yang baik mengapa ini terjadi?

dts86
sumber
3
Anda mungkin ingin pertama-tama merenungkan pertanyaan yang berkaitan erat tetapi lebih sederhana mengapa dalam sampel univariat, residu yang Anda dapatkan dengan mengurangi rata-rata sampel dari setiap nilai juga berjumlah 0. (Coba ikuti aljabar melalui jika Anda bisa.)
Glen_b - Pasang kembali Monica
3
Segera setelah Anda mengetahui bahwa "penjumlahan ke nol" berarti "ortogonal ke salah satu variabel penjelas" jawabannya menjadi jelas secara geometris.
Whuber

Jawaban:

18

Ini mengikuti langsung dari persamaan normal, yaitu persamaan yang diselesaikan oleh penaksir OLS,

X(yXb)e=0

Vektor di dalam tanda kurung tentu saja adalah vektor residual atau proyeksi ke komplemen ortogonal dari ruang kolom , jika Anda suka aljabar linier. Sekarang termasuk vektor yang ada dalam matriks , yang omong-omong tidak harus ada di kolom pertama seperti yang dilakukan secara konvensional, mengarah ke X XyXX

1e=0i=1nei=0

Dalam masalah dua variabel ini bahkan lebih mudah untuk dilihat, karena meminimalkan jumlah residu kuadrat membawa kita ke

i=1n(yiabxi)=0

ketika kita mengambil turunan sehubungan dengan intersepsi. Dari sini kemudian kita melanjutkan untuk mendapatkan penduga yang sudah dikenal

a=y¯bx¯

di mana lagi kita melihat bahwa konstruksi estimator kita memaksakan kondisi ini.

JohnK
sumber
17

Jika Anda mencari penjelasan yang agak intuitif.

Dalam beberapa hal, model regresi linier tidak lain hanyalah sebuah kemewahan. Untuk menemukan rata-rata aritmatika atas beberapa nilai , kami menemukan nilai yang merupakan ukuran sentralitas dalam arti jumlah dari semua penyimpangan (di mana setiap deviasi didefinisikan sebagai ) di sebelah kanan nilai rata-rata sama dengan jumlah semua penyimpangan di sebelah kiri rata-rata itu. Tidak ada alasan yang melekat mengapa ukuran ini baik, apalagi cara terbaik untuk menggambarkan rata-rata sampel, tetapi tentu saja intuitif dan praktis. Poin pentingnya adalah, bahwa dengan mendefinisikan rata-rata aritmatika dengan cara ini, berarti bahwa setelah kita membuat rata-rata aritmatika, semua penyimpangan dari rata-rata itu harus dijumlahkan menjadi nol secara definisi!x¯x1,x2,,xnui=xix¯

Dalam regresi linier, ini tidak berbeda. Kami cocok baris sehingga jumlah semua perbedaan antara nilai-nilai kita dipasang (yang berada di garis regresi) dan nilai-nilai yang sebenarnya yang di atas garis adalah persis sama dengan jumlah semua perbedaan antara garis regresi dan semua nilai-nilai di bawah ini baris. Sekali lagi, tidak ada alasan yang melekat, mengapa ini adalah cara terbaik untuk membangun kecocokan, tetapi itu mudah dan secara intuitif menarik. Seperti halnya rata-rata aritmatika: dengan membangun nilai-nilai yang sesuai dengan kita dengan cara ini, maka harus mengikuti, dengan konstruksi, bahwa semua penyimpangan dari garis itu harus dijumlahkan ke nol karena jika tidak, ini tidak hanya akan menjadi resesi OLS.

Manuel R
sumber
2
+1 untuk jawaban langsung, sederhana, dan intuitif!
3

Ketika intersep dimasukkan dalam regresi linier berganda, Dalam regresi kuadrat terkecil, jumlah kuadrat kesalahan diminimalkan. Ambil parsial turunan dari SSE sehubungan dengan dan menetapkannya ke nol.

y^i=β0+β1xi,1+β2xi,2++βpxi,p
SSE=i=1n(ei)2=i=1n(yiyi^)2=i=1n(yiβ0β1xi,1β2xi,2βpxi,p)2
β0
SSEβ0=i=1n2(yiβ0β1xi,1β2xi,2βpxi,p)1(1)=2i=1nei=0
Oleh karena itu, residu selalu berjumlah nol ketika intersep dimasukkan dalam regresi linier.

DavidCruise
sumber
1

Pengamatan utama adalah bahwa karena model memiliki intersep, , yang merupakan kolom pertama dari matriks desain , dapat ditulis sebagai mana adalah vektor kolom dengan semua nol tetapi komponen pertama. Perhatikan juga, dalam notasi matriks, jumlah residu hanya .1X

1=Xe,
e1T(yy^)

Karenanya,

1T(yy^)=1T(IH)y=eTXT(IX(XTX)1XT)y=eT(XTXTX(XTX)1XT)y=eT(XTXT)y=0.

Zhanxiong
sumber
0

Derivasi sederhana menggunakan aljabar matriks:

e dapat ditulis sebagai1Te

Kemudian

1Te=1T(Mxy) mana adalah matriks ortogonal. Karena simetris, kita dapat mengatur ulang sehingga MxMx(Mx1)Ty

yang sama dengan nol jika dan adalah ortogonal, yang merupakan kasus jika matriks dari regresi berisi intersep (vektor , memang).Mx1x1

Mino
sumber
Saya pikir ini tidak benar.
Michael R. Chernick
Jika Anda menjelaskan mengapa saya akan senang mempelajari sesuatu
Mino
0
  1. ei=yi[1,X][a,b]=yiXba=via
  2. ddaei2ei1=via=0a^=1nvi
  3. ei=ivia=ivinnivi=0

..

Hunaphu
sumber