Saya mencoba menafsirkan hasil artikel, di mana mereka menerapkan regresi berganda untuk memprediksi berbagai hasil. Namun (koefisien B terstandarisasi didefinisikan sebagai manaadalah variabel dependen danadalah prediktor) yang dilaporkan tampaknya tidak cocok dengandilaporkan:
Meskipun dari -0,83, -0,29, -0,16, -0,43, 0,25, dan -0,29, dilaporkan hanya 0,20.
Juga, tiga prediktor: berat badan, BMI dan% lemak adalah multi-collinear, berkorelasi sekitar r = 0,8-0,9 dengan satu sama lain dalam jenis kelamin.
Apakah nilai masuk akal dengan ini , atau apakah tidak ada hubungan langsung antara dan ?
Selain itu, mungkin masalah dengan prediktor multikolinier memengaruhi dari prediktor keempat (VO2max), yang berkorelasi sekitar r = 0,4 dengan tiga variabel yang disebutkan di atas?
sumber
Jawaban:
The interpretasi geometris biasa kuadrat regresi memberikan wawasan yang diperlukan.
Sebagian besar dari apa yang perlu kita ketahui dapat dilihat pada kasus dua regresi dan x 2 dengan respons y . The koefisien standar, atau "beta," muncul ketika ketiga vektor dibakukan dengan panjang yang sama (yang mungkin kita ambil untuk menjadi kesatuan). Jadi, x 1 dan x 2 adalah vektor satuan dalam bidang E 2 - mereka terletak pada lingkaran satuan - dan y adalah vektor satuan dalam ruang Euclidean tiga dimensi E 3 yang mengandung bidang itu. Nilai dipasang y adalah ortogonal (tegak lurus) proyeksix1 x2 y x1 x2 E2 y E3 y^ ke E 2 . Karena R 2 hanya adalah panjang kuadrat dari y , kita bahkan tidak perlu memvisualisasikan semua tiga dimensi: semua informasi yang kami perlu dapat ditarik dalam pesawat itu.y E2 R2 y^
Pengoreksi ortogonal
Situasi yang paling baik adalah ketika para regresor ortogonal, seperti pada gambar pertama.
Dalam hal ini dan sisanya dari angka-angka saya akan secara konsisten menggambar unit disk putih dan regressor sebagai panah hitam. akan selalu mengarah langsung ke kanan. Panah merah tebal menggambarkan komponen yx1 y^ di dan x 2 arah: yaitu, β 1 x 1 dan β 2 x 2 . Panjang y adalah jari-jari lingkaran abu-abu yang terletak - tapi ingat bahwa R 2 adalahx1 x2 β1x1 β2x2 y^ R2 persegi panjang itu.
The Teorema Pythagoras menegaskan
Karena Teorema Pythagoras berpegang pada sejumlah dimensi, penalaran ini digeneralisasikan ke sejumlah regresi, menghasilkan hasil pertama kami:
Sebuah konsekuensi langsung adalah bahwa ketika hanya ada satu regressor - univariat regression-- adalah kuadrat dari lereng standar.R2
Berkorelasi
Regenerasi berkorelasi negatif bertemu pada sudut yang lebih besar dari sudut kanan.
Terlihat jelas dalam gambar ini bahwa jumlah kuadrat dari betas benar-benar lebih besar dari . Ini dapat dibuktikan secara aljabar menggunakan Hukum Cosinus atau dengan bekerja dengan solusi matriks Persamaan Normal.R2
Dengan membuat dua regressors hampir sejajar, kita dapat memposisikan y dekat asal (untuk R 2 dekat 0 ) sementara itu terus memiliki komponen besar di x 1 dan x 2 arah. Dengan demikian, tidak ada batasan seberapa kecil R 2 .y^ R2 0 x1 x2 R2
Mari kita mengenang hasil yang jelas ini, generalitas kedua kita:
Namun, ini bukan hubungan universal, seperti yang ditunjukkan oleh gambar selanjutnya.
Sekarang secara ketat melebihi jumlah kuadrat dari beta. Dengan menggambar dua regressors dekat bersama-sama dan menjaga y di antara mereka, kita dapat membuat beta kedua pendekatan 1 / 2 , bahkan ketika R 2 dekat dengan 1 . Analisis lebih lanjut mungkin memerlukan beberapa aljabar: Saya mengambilnya di bawah.R2 y^ 1 / 2 R2 1
Saya serahkan pada imajinasi Anda untuk membuat contoh serupa dengan regresi berkorelasi positif, yang karenanya bertemu pada sudut yang akut.
Perhatikan bahwa kesimpulan ini tidak lengkap: ada batasan seberapa jauh dapat dibandingkan dengan jumlah kuadrat dari beta. Secara khusus, dengan memeriksa kemungkinan dengan cermat, Anda dapat menyimpulkan (untuk regresi dengan dua regresi) ituR2
Hasil aljabar
Secara umum, biarkan regressor menjadi (kolom vektor) dan responnya adalah y . Standarisasiberarti (a) masing-masing ortogonal terhadap vektor ( 1 , 1 , … , 1 ) ′ dan (b) memiliki panjang satuan:x1, x2, ... , xhal y ( 1 , 1 , … , 1 )′
Merakit vektor-vektor kolom menjadi n × p matriks X . Aturan perkalian matriks menyiratkan hal ituxsaya n × p X
adalah matriks korelasi . Beta diberikan oleh Persamaan Normal,xsaya
Selain itu, menurut definisi, kecocokannya adalah
Panjang kuadratnya memberikan menurut definisi:R2
Kesenjangan Cauchy-Schwarz menyiratkan
Kesimpulan
sumber