Saya saat ini akan melalui set slide yang saya miliki untuk "analisis faktor" (PCA sejauh yang saya tahu).
Di dalamnya, "teorema fundamental analisis faktor" diturunkan yang mengklaim bahwa matriks korelasi dari data yang dimasukkan ke dalam analisis ( ) dapat dipulihkan dengan menggunakan matriks pemuatan faktor ( A ):
Namun ini membingungkan saya. Dalam PCA, matriks "load faktor" diberikan oleh matriks vektor eigen dari matriks kovarians / korelasi data (karena kami mengasumsikan bahwa data telah distandarisasi, semuanya sama), dengan setiap vektor eigen diskalakan untuk memiliki panjang satu. Matriks ini adalah orthogonal, sehingga yang pada umumnya tidak sama dengan R .
pca
factor-analysis
terminology
definition
pengguna2249626
sumber
sumber
A
(yang memuat), untuk alasan kejelasan. Matriks vektor eigen (sisi kanan) biasanya diberi labelV
(karenaR=USV'
oleh svd), bukanA
. Nama lain yang setara (berasal dari terminologi biplot) untuk vektor eigen adalah "koordinat standar", dan untuk memuat adalah "koordinat utama".Jawaban:
Ini adalah pertanyaan yang masuk akal (+1) yang berasal dari ambiguitas dan kebingungan terminologis.
Dalam konteks PCA, orang sering menyebut sumbu utama (vektor eigen dari matriks kovarians / korelasi) "memuat". Ini adalah terminologi yang ceroboh. Apa yang seharusnya disebut "memuat" dalam PCA, adalah sumbu utama yang diskalakan oleh akar kuadrat dari nilai eigen masing-masing. Maka teorema yang Anda maksudkan akan berlaku.
Silakan lihat jawaban saya di sini untuk informasi lebih lanjut tentang merekonstruksi matriks kovarian dengan analisis faktor dan pemuatan PCA.
sumber