Saya mengambil kursus tentang model regresi dan salah satu properti yang disediakan untuk regresi linier adalah bahwa residual selalu berjumlah nol ketika intersep dimasukkan.
Adakah yang bisa memberikan penjelasan yang baik mengapa ini terjadi?
regression
residuals
dts86
sumber
sumber
Jawaban:
Ini mengikuti langsung dari persamaan normal, yaitu persamaan yang diselesaikan oleh penaksir OLS,
Vektor di dalam tanda kurung tentu saja adalah vektor residual atau proyeksi ke komplemen ortogonal dari ruang kolom , jika Anda suka aljabar linier. Sekarang termasuk vektor yang ada dalam matriks , yang omong-omong tidak harus ada di kolom pertama seperti yang dilakukan secara konvensional, mengarah ke X Xy X X
Dalam masalah dua variabel ini bahkan lebih mudah untuk dilihat, karena meminimalkan jumlah residu kuadrat membawa kita ke
ketika kita mengambil turunan sehubungan dengan intersepsi. Dari sini kemudian kita melanjutkan untuk mendapatkan penduga yang sudah dikenal
di mana lagi kita melihat bahwa konstruksi estimator kita memaksakan kondisi ini.
sumber
Jika Anda mencari penjelasan yang agak intuitif.
Dalam beberapa hal, model regresi linier tidak lain hanyalah sebuah kemewahan. Untuk menemukan rata-rata aritmatika atas beberapa nilai , kami menemukan nilai yang merupakan ukuran sentralitas dalam arti jumlah dari semua penyimpangan (di mana setiap deviasi didefinisikan sebagai ) di sebelah kanan nilai rata-rata sama dengan jumlah semua penyimpangan di sebelah kiri rata-rata itu. Tidak ada alasan yang melekat mengapa ukuran ini baik, apalagi cara terbaik untuk menggambarkan rata-rata sampel, tetapi tentu saja intuitif dan praktis. Poin pentingnya adalah, bahwa dengan mendefinisikan rata-rata aritmatika dengan cara ini, berarti bahwa setelah kita membuat rata-rata aritmatika, semua penyimpangan dari rata-rata itu harus dijumlahkan menjadi nol secara definisi!x¯ x1, x2, ... , xn kamusaya= xsaya- x¯
Dalam regresi linier, ini tidak berbeda. Kami cocok baris sehingga jumlah semua perbedaan antara nilai-nilai kita dipasang (yang berada di garis regresi) dan nilai-nilai yang sebenarnya yang di atas garis adalah persis sama dengan jumlah semua perbedaan antara garis regresi dan semua nilai-nilai di bawah ini baris. Sekali lagi, tidak ada alasan yang melekat, mengapa ini adalah cara terbaik untuk membangun kecocokan, tetapi itu mudah dan secara intuitif menarik. Seperti halnya rata-rata aritmatika: dengan membangun nilai-nilai yang sesuai dengan kita dengan cara ini, maka harus mengikuti, dengan konstruksi, bahwa semua penyimpangan dari garis itu harus dijumlahkan ke nol karena jika tidak, ini tidak hanya akan menjadi resesi OLS.
sumber
Ketika intersep dimasukkan dalam regresi linier berganda, Dalam regresi kuadrat terkecil, jumlah kuadrat kesalahan diminimalkan. Ambil parsial turunan dari SSE sehubungan dengan dan menetapkannya ke nol.y^i=β0+β1xi,1+β2xi,2+…+βpxi,p SSE=∑i=1n(ei)2=∑i=1n(yi−yi^)2=∑i=1n(yi−β0−β1xi,1−β2xi,2−…−βpxi,p)2 β0 ∂SSE∂β0=∑i=1n2(yi−β0−β1xi,1−β2xi,2−…−βpxi,p)1(−1)=−2∑i=1nei=0
Oleh karena itu, residu selalu berjumlah nol ketika intersep dimasukkan dalam regresi linier.
sumber
Pengamatan utama adalah bahwa karena model memiliki intersep, , yang merupakan kolom pertama dari matriks desain , dapat ditulis sebagai mana adalah vektor kolom dengan semua nol tetapi komponen pertama. Perhatikan juga, dalam notasi matriks, jumlah residu hanya .1 X 1=Xe, e 1T(y−y^)
Karenanya,====1T(y−y^)=1T(I−H)yeTXT(I−X(XTX)−1XT)yeT(XT−XTX(XTX)−1XT)yeT(XT−XT)y0.
sumber
Derivasi sederhana menggunakan aljabar matriks:
Kemudian
yang sama dengan nol jika dan adalah ortogonal, yang merupakan kasus jika matriks dari regresi berisi intersep (vektor , memang).Mx 1 x 1
sumber
..
sumber