Saya membaca Elemen Pembelajaran Statistik dan pada halaman 12 (bagian 2.3) model linier dinotasikan sebagai:
... di mana adalah transpos dari vektor kolom prediktor / variabel / input independen. (Ini menyatakan sebelumnya "semua vektor diasumsikan vektor kolom" sehingga tidak akan membuat ini X T vektor baris dan ß vektor kolom?)
Termasuk dalam adalah " 1 " yang akan dikalikan dengan koefisien terkait yang memberikan intersep (konstan).
Selanjutnya dikatakan:
Dalam berdimensi ruang input-output, ( X , Y ) merupakan hyperplane. Jika konstanta termasuk dalam X , maka hyperplane menyertakan asal dan merupakan subruang; jika tidak, itu adalah set affine memotong Y- sumbu pada titik ( 0 , ^ β 0 ) .
Apakah " " menggambarkan vektor dibentuk oleh gabungan dari prediksi, yang mencegat itu " 1 " dan Y ? Dan mengapa memasukkan " 1 " di X memaksa hyperplane untuk melewati titik asal, tentunya bahwa " 1 " harus dikalikan dengan ^ β 0 ?
Saya gagal memahami buku itu; bantuan / saran / tautan ke sumber daya akan sangat dihargai.
Jawaban:
( Sunting: Saya baru menyadari bahwa untuk pertanyaan kedua Anda, ini persis kebalikan dari Anda yang telah menulis penyertaan ulang pemasukan atau pengecualian konstanta. Namun, saya telah menemukan solusi di sini dan saya berdiri dikoreksi jika saya salah tentang yang itu. )
Saya tahu representasi matriks dari suatu regresi bisa sangat membingungkan pada awalnya, tetapi pada akhirnya itu menyederhanakan banyak ketika menurunkan aljabar yang lebih kompleks. Semoga ini bisa membantu sedikit.
sumber
Saya pikir cara untuk memikirkannya adalah mengatur ulang persamaan itu:
sumber