Di PCA, Anda membagi matriks kovarians (atau korelasi) menjadi bagian skala (nilai eigen) dan bagian arah (vektor eigen). Anda kemudian dapat memberkati eigen dengan skala: beban . Jadi, pembebanan dengan demikian menjadi sebanding dengan besarnya dengan kovariansi / korelasi yang diamati antara variabel, - karena apa yang telah ditarik dari kovariat variabel sekarang kembali kembali - dalam bentuk kovariat antara variabel dan komponen utama. Sebenarnya, pembebanan adalah kovariansi / korelasi antara variabel asli dan komponen skala unit . Jawaban ini menunjukkan secara geometris apa yang memuat dan apa koefisien yang mengaitkan komponen dengan variabel dalam PCA atau analisis faktor.
Pemuatan :
Membantu Anda menafsirkan komponen atau faktor utama; Karena mereka adalah bobot kombinasi linear (koefisien) di mana komponen atau faktor skala unit menentukan atau "memuat" suatu variabel .
(Vektor vektor hanya koefisien transformasi atau proyeksi ortogonal , itu tanpa "beban" dalam nilainya. "Beban" adalah (informasi jumlah) varians, besarnya. PC diekstraksi untuk menjelaskan varians variabel. Nilai eigen adalah varians dari (= dijelaskan oleh) PC. Ketika kita mengalikan vektor eigen dengan sq.root dari nilai eiven kita "memuat" koefisien telanjang dengan jumlah varians. Atas dasar itu kita membuat koefisien untuk menjadi ukuran asosiasi , variabilitas.)
Pemuatan kadang-kadang "diputar" (misalnya varimax) sesudahnya untuk memfasilitasi interpretabilitas ( lihat juga );
Ini adalah pemuatan yang "mengembalikan" matriks kovarians / korelasi asli (lihat juga utas ini yang membahas nuansa PCA dan FA dalam hal itu);
Sementara di PCA Anda dapat menghitung nilai komponen baik dari vektor eigen dan pemuatan, dalam analisis faktor Anda menghitung skor faktor dari pemuatan .
Dan, di atas semua itu, memuat matriks informatif: jumlah vertikal kuadratnya adalah nilai eigen, varians komponen, dan jumlah kuadrat horizontalnya adalah bagian dari varians variabel yang "dijelaskan" oleh komponen.
Pemuatan berskala ulang atau terstandar adalah pemuatan yang dibagi dengan variabel st. deviasi; itu adalah korelasinya. (Jika PCA Anda adalah PCA berbasis korelasi, pemuatan sama dengan yang dihitung ulang, karena PCA berbasis korelasi adalah PCA pada variabel standar.) Pemuatan yang dikuadratkan ulang kuadrat memiliki arti kontribusi pr. komponen menjadi variabel; jika tinggi (mendekati 1) variabel didefinisikan dengan baik oleh komponen itu saja.
Contoh perhitungan yang dilakukan dalam PCA dan FA untuk Anda lihat .
Vektor eigen adalah pemuatan skala-unit; dan mereka adalah koefisien (cosinus) dari transformasi ortogonal (rotasi) variabel menjadi komponen utama atau belakang. Oleh karena itu mudah untuk menghitung nilai komponen (tidak terstandarisasi) dengannya. Selain itu penggunaannya terbatas. Nilai vektor eigen kuadrat memiliki arti kontribusi variabel ke dalam suatu pr. komponen; jika tinggi (hampir 1) komponen didefinisikan dengan baik oleh variabel itu saja.
Meskipun vektor dan pemuatan eigen hanyalah dua cara berbeda untuk menormalkan koordinat titik yang sama yang mewakili kolom (variabel) data pada biplot , bukan ide yang baik untuk mencampur kedua istilah tersebut. Jawaban ini menjelaskan alasannya. Lihat juga .
R
pengguna di situs ini telah menyebut vektor eigen "memuat" yang mungkin berasal dari dokumentasi fungsi.Tampaknya ada banyak kebingungan tentang pemuatan, koefisien dan vektor eigen. Kata memuat berasal dari Analisis Faktor dan mengacu pada koefisien regresi dari matriks data ke faktor-faktor. Mereka bukan koefisien yang mendefinisikan faktor. Lihat misalnya Mardia, Bibby dan Kent atau buku teks statistik multivariat lainnya.
Dalam beberapa tahun terakhir kata memuat telah digunakan untuk menunjukkan koefisien PC. Di sini tampaknya digunakan untuk menunjukkan koefisien yang dikalikan dengan sqrt dari nilai eigen dari matriks. Ini bukan jumlah yang biasa digunakan dalam PCA. Komponen utama didefinisikan sebagai jumlah variabel yang ditimbang dengan koefisien norma satuan. Dengan cara ini PC memiliki norma yang sama dengan nilai eigen yang sesuai, yang pada gilirannya sama dengan varians yang dijelaskan oleh komponen.
Dalam Analisis Faktor inilah faktor-faktor diharuskan memiliki norma satuan. Tetapi FA dan PCA sangat berbeda. Memutar koefisien PC sangat jarang dilakukan karena merusak optimalitas komponen.
Dalam FA faktor-faktor tersebut tidak didefinisikan secara unik dan dapat diperkirakan dengan berbagai cara. Kuantitas penting adalah pembebanan (yang benar) dan komunalitas yang digunakan untuk mempelajari struktur matriks kovarian. PCA atau PLS harus digunakan untuk memperkirakan komponen.
sumber
L
yang digunakan untuk menulis matriks kovarians sebagaiS = LL' + C
manaC
adalah matriks diagonal. mereka tidak ada hubungannya dengan koefisien PC.they have nothing to do with the PCs' coefficients
Kami menghitung pemuatan di PCA seperti kami melakukannya di FA. Model-modelnya berbeda tetapi arti pemuatannya serupa dalam kedua metode.Muatan = Vektor Eigen Normal ⋅ Akar kuadrat dari (Nilai Eigen Absolut) Di sini vektor eigen ortonormal (yaitu, istilah vektor Eigen ortonormal) memberikan arah dan istilah akar kuadrat dari (nilai Eigen Absolut) memberikan nilai.
Biasanya orang mengatakan bahwa tanda-tanda muatan tidak penting tetapi besarnya penting. Tetapi jika kita membalikkan arah satu vektor eigen (menjaga tanda vektor eigen lainnya seperti adanya), maka skor faktor akan berubah. Karenanya analisis lebih lanjut akan dipengaruhi secara signifikan.
Saya tidak bisa mendapatkan solusi yang memuaskan untuk ambiguitas ini sejauh ini.
sumber
Tampaknya ada beberapa kebingungan tentang masalah ini, jadi saya akan memberikan beberapa pengamatan dan petunjuk ke mana jawaban yang sangat baik dapat ditemukan dalam literatur.
Pertama, PCA dan Analisis Faktor (FA) yang terkait. Secara umum, komponen utama adalah ortogonal menurut definisi sedangkan faktor - entitas analog dalam FA - tidak. Sederhananya, komponen utama span ruang faktor dalam cara yang sewenang-wenang tetapi tidak selalu berguna karena berasal dari analisis eigen murni data. Faktor di sisi lain mewakili entitas dunia nyata yang hanya ortogonal (yaitu tidak berkorelasi atau independen) secara kebetulan.
Katakanlah kita mengambil s pengamatan dari masing-masing l pelajaran. Ini dapat diatur ke dalam matriks data yang D memiliki s baris dan l kolom. D dapat didekomposisi menjadi matriks skor S dan matriks pemuatan L sedemikian rupa sehingga D = SL . S akan memiliki s baris, dan L akan memiliki l kolom, dimensi kedua dari masing-masing menjadi jumlah faktor n . Tujuan dari analisis faktor adalah untuk menguraikan Dsedemikian rupa untuk mengungkapkan skor dan faktor yang mendasarinya. Loadings di L memberitahu kami proporsi masing-masing skor yang membentuk pengamatan di D .
Dalam PCA, L memiliki vektor eigen dari korelasi atau matriks kovarians D sebagai kolomnya. Ini secara konvensional diatur dalam urutan nilai eigen yang sesuai. Nilai n - yaitu jumlah komponen utama yang penting untuk dipertahankan dalam analisis, dan karenanya jumlah baris L - biasanya ditentukan melalui penggunaan plot scree dari nilai eigen atau salah satu dari banyak metode lain yang dapat ditemukan di literatur. Kolom S di PCA membentuk n komponen utama abstrak sendiri. Nilai n adalah dimensi yang mendasari set data.
Objek analisis faktor adalah untuk mengubah komponen abstrak ke dalam faktor-faktor yang bermakna melalui penggunaan transformasi matriks T sehingga D = STT -1 L . ( ST ) adalah matriks skor yang ditransformasikan, dan ( T -1 L ) adalah matriks pembebanan yang ditransformasikan.
Penjelasan di atas kira-kira mengikuti notasi Edmund R. Malinowski dari Analisis Faktornya yang sangat baik dalam Kimia . Saya sangat merekomendasikan bab pembuka sebagai pengantar untuk topik ini.
sumber
Saya agak bingung dengan nama-nama itu, dan saya mencari di dalam buku yang berjudul "Metode Statistik dalam Ilmu Atmosfer", dan itu memberi saya ringkasan tentang berbagai terminologi PCA, berikut adalah tangkapan layar dalam buku ini, semoga screenshot ini dapat membantu.
sumber