Apa pentingnya matriks topi,

10

Apa pentingnya matriks topi, H=X(XX)1X , dalam analisis regresi?

Apakah hanya untuk perhitungan yang lebih mudah?

pengguna 31466
sumber
Juga, bisakah Anda lebih spesifik?
Steve S
@SteveS Sebenarnya saya ingin tahu mengapa kita perlu topi matriks?
pengguna 31466
Apakah Anda bertanya mengapa kami perlu memiliki nama / simbol khusus (yaitu "hat matrix", " H ") untuk matriks atau apakah Anda bertanya lebih lanjut tentang pentingnya produk matriks di sisi kanan?
Steve S

Jawaban:

14

Dalam studi regresi linier, titik awal dasar adalah proses menghasilkan data y= XB + u di mana dan deterministik. Setelah meminimalkan kriteria kuadrat terkecil, orang menemukan estimator untuk , yaitu . Setelah memasukkan estimator dalam rumus awal, seseorang mendapat sebagai model linier dari proses pembuatan data. Sekarang, seseorang dapat mengganti estimator untuk dan mendapatkanXuN(0,σ2I)XB^BB^=(XX)1Xyy^=XB^B^y^=X(XX)1Xy.

Jadi, sebenarnya adalah matriks proyeksi. Bayangkan Anda mengambil semua variabel di . Variabelnya adalah vektor dan rentang ruang. Oleh karena itu, jika Anda mengalikan dengan , Anda memproyeksikan nilai yang diamati di ke ruang yang direntang oleh variabel dalam . Ini memberikan satu perkiraan untuk dan itulah alasan mengapa itu disebut hat matrix dan mengapa ia memiliki kepentingan yang demikian. Bagaimanapun, regresi linier tidak lebih dari sebuah proyeksi dan dengan matriks proyeksi kita tidak bisa hanya menghitung estimasi untukH=X(XX)1XXHyyXyytetapi juga untuk dan dapat misalnya memeriksa apakah benar-benar terdistribusi normal.u

Saya menemukan gambar yang bagus di internet dan memvisualisasikan proyeksi ini. Harap dicatat, digunakan sebagai ganti . Selain itu, gambar ini menekankan vektor dari istilah kesalahan adalah ortogonal terhadap proyeksi dan karenanya tidak berkorelasi dengan perkiraan untukβBy

masukkan deskripsi gambar di sini

random_guy
sumber
5

Matriks topi sangat berguna karena beberapa alasan:

  1. Alih-alih memiliki , kita mendapatkan mana adalah matriks topi. Ini memberi kita bahwa adalah pemetaan linear dari nilai-nilai yang diamati.y =PyP yy^=Zβ^y^=PyPy^
  2. Dari matriks hat , mudah untuk menghitung residual . Kita melihat bahwa .ε ε = y - y = y - P y = ( I n - P ) yPϵ^ϵ^=yy^=yPy=(InP)y
wilsnunn
sumber
0

Ini tidak lebih dari menemukan solusi "terdekat" untuk Ax = b di mana b tidak dalam ruang kolom A. Kami memproyeksikan b ke ruang kolom, dan menyelesaikan untuk Ax (topi) = p di mana p adalah proyeksi b ke ruang kolom.

Andrew W
sumber
1
Semua ini dapat dilakukan tanpa pernah komputasi . H
whuber