Berikut adalah kutipan dari buku "Pengenalan Pola dan Pembelajaran Mesin" Bishop, bagian 12.2.4 "Analisis Faktor":
Menurut bagian disorot, analisis faktor menangkap kovarians antara variabel dalam matriks . Saya bertanya-tanya BAGAIMANA ?
Inilah bagaimana saya memahaminya. Say adalah variabel dimensi yang diamati, adalah matriks pemuatan faktor, dan adalah vektor skor faktor. Maka kita memiliki
Sekarang inilah intinya, menurut bagian yang disorot, saya pikir memuat di setiap kolom menjelaskan kovarian dalam data yang diamati, kan?
Sebagai contoh, mari kita lihat vektor pemuatan pertama , untuk 1 ≤ i , j , k ≤ p , jika w 1 i = 10 , w 1 j = 11 dan w 1 k = 0,1 , maka saya akan mengatakan x i dan x j sangat berkorelasi, sedangkan x k tampaknya berkorelasi dengan mereka , aku benar?
Dan jika ini adalah bagaimana analisis faktor menjelaskan kovarians antara fitur yang diamati, maka saya akan mengatakan PCA juga menjelaskan kovarians, bukan?
sumber
Jawaban:
Perbedaan antara analisis komponen Utama dan analisis Faktor dibahas dalam banyak buku teks dan artikel tentang teknik multivariat. Anda dapat menemukan utas lengkap , dan yang lebih baru , dan jawaban aneh, di situs ini juga.
Saya tidak akan membuatnya rinci. Saya sudah memberikan jawaban yang ringkas dan yang lebih panjang dan ingin mengklarifikasi dengan sepasang gambar.
Representasi grafis
Gambar di bawah ini menjelaskan PCA . (Ini dipinjam dari sini di mana PCA dibandingkan dengan regresi Linear dan korelasi Canonical. Gambar adalah representasi vektor dari variabel dalam ruang subjek ; untuk memahami apa itu Anda mungkin ingin membaca paragraf ke-2 di sana.)
Konfigurasi PCA pada gambar ini dijelaskan di sana . Saya akan mengulangi hal-hal yang paling pokok. Komponen utamaP1 dan P2 terletak di ruang yang sama yang direntang oleh variabel X1 dan X2 , "bidang X". Panjang kuadrat dari masing-masing empat vektor adalah variansnya. Kovarians antara X1 dan X2 adalah cov12=|X1||X2|r , dimana r sama dengan cosinus sudut antara vektor-vektornya.
Proyeksi (koordinat) variabel pada komponen,a , adalah pembebanan komponen pada variabel: pembebanan adalah koefisien regresi dalam kombinasi linier variabel pemodelan oleh komponen standar . "Standar" - karena informasi tentang varian komponen sudah diserap dalam pemuatan (ingat, pemuatan adalah vektor eigen yang dinormalisasi ke masing-masing nilai eigen). Dan karena itu, dan fakta bahwa komponen tidak berkorelasi, pemuatan adalah kovarian antara variabel dan komponen.
Menggunakan PCA untuk dimensi / tujuan reduksi data memaksa kita untuk mempertahankan hanyaP1 dan menganggap P2 sebagai sisanya, atau kesalahan. a211+a221=|P1|2 adalah varians yang ditangkap (dijelaskan) oleh P1 .
Gambar di bawah ini menunjukkan analisis Faktor yang dilakukan pada variabel yang samaX1 dan X2 dengan yang kami lakukan PCA di atas. (Saya akan berbicara tentang model faktor umum , karena ada yang lain: model faktor alfa, model faktor gambar.) Smiley sun membantu dengan pencahayaan.
Faktor umum adalahF . Ini adalah apa yang analog dengan komponen utama P1 atas. Bisakah Anda melihat perbedaan antara keduanya? Ya, jelas: faktornya tidak terletak pada ruang variabel ' pesawat X ".
Bagaimana cara mendapatkan faktor itu dengan satu jari, yaitu melakukan analisis faktor? Mari mencoba. Pada gambar sebelumnya, kaitkan ujung panahP1 dengan ujung kuku Anda dan tarik menjauh dari "pesawat X", sambil memvisualisasikan bagaimana dua pesawat baru muncul, "pesawat U1" dan "pesawat U2"; ini menghubungkan vektor terkait dan dua vektor variabel. Kedua pesawat membentuk tudung, X1 - F - X2, di atas "pesawat X".
Lanjutkan menarik sambil merenungkan kap dan berhenti ketika "pesawat U1" dan "pesawat U2" membentuk 90 derajat di antara keduanya. Siap, analisis faktor dilakukan. Ya, tapi belum optimal. Untuk melakukannya dengan benar, seperti halnya paket, ulangi seluruh latihan menarik panah, sekarang tambahkan ayunan kecil kiri-kanan jari Anda saat Anda menarik. Dengan melakukannya, cari posisi panah ketika jumlah proyeksi kuadrat dari kedua variabel ke atasnya dimaksimalkan , saat Anda mencapai sudut 90 derajat. Berhenti. Anda melakukan analisis faktor, ditemukan posisi faktor umumF .
Sekali lagi untuk berkomentar, tidak seperti komponen utamaP1 , faktor F tidak termasuk dalam ruang variabel "bidang X". Oleh karena itu itu bukan fungsi dari variabel (komponen utama, dan Anda dapat memastikan dari dua gambar teratas di sini bahwa PCA pada dasarnya dua arah: memprediksi variabel dengan komponen dan sebaliknya). Analisis faktor dengan demikian bukan metode deskripsi / penyederhanaan, seperti PCA, itu adalah metode pemodelan dimana faktor laten steere variabel yang diamati, satu arah.
Bebana 's dari faktor pada variabel seperti beban di PCA; mereka adalah kovarian dan mereka adalah koefisien pemodelan variabel oleh faktor (standar). a21+a22=|F|2 adalah varians ditangkap (dijelaskan) oleh F . Faktor itu ditemukan untuk memaksimalkan kuantitas ini - seolah-olah komponen utama. Namun, varians yang dijelaskan itu tidak lebih varians kotor variabel , - sebaliknya, itu adalah varians mereka yang dengannya mereka saling bervariasi (berkorelasi). Kenapa begitu?
Kembali ke foto. Kami mengekstraksiF bawah dua persyaratan. Salah satunya adalah jumlah maksimal pemuatan kuadrat yang baru saja disebutkan. Yang lainnya adalah pembuatan dua bidang tegak lurus, "pesawat U1" yang berisi F dan X1 , dan "pesawat U2" yang berisi F dan X2 . Dengan cara ini masing-masing variabel X muncul terurai. X1 itu didekomposisi menjadi variabel F dan U1 , saling orthogonal; X2 juga didekomposisi menjadi variabel F dan U2 , juga ortogonal. Dan U1 bersifat ortogonal ke U2 . Kita tahu apa itu F - faktor umum . U disebut faktor unik . Setiap variabel memiliki faktor uniknya. Artinya adalah sebagai berikut. U1 belakang X1 dan U2 belakang X2 adalah kekuatan yang menghalangi X1 dan X2 untuk berkorelasi. Tapi F - faktor umum - adalah kekuatan di balik X1 dan X2 yang membuat mereka berkorelasi. Dan perbedaan yang dijelaskan ada di sepanjang faktor umum itu. Jadi, itu adalah varian collinearity murni. Itu adalah bahwa varians yang membuat cov12>0 ; nilai sebenarnya dari cov12 yang ditentukan oleh kecenderungan variabel terhadap faktor, oleh a 's.
Sebuah variabel varians (panjang vektor kuadrat) dengan demikian terdiri dari dua bagian menguraikan aditif: keunikanu2 dan komunalitas a2 . Dengan dua variabel, seperti contoh kami, kami dapat mengekstraksi paling banyak satu faktor umum, jadi komunality = pemuatan tunggal kuadrat. Dengan banyak variabel kita dapat mengekstrak beberapa faktor umum, dan komunality variabel akan menjadi jumlah dari kuadratnya memuat. Pada gambar kami, ruang faktor umum adalah unidimensional (hanya F itu sendiri); ketika m faktor umum ada, ruang itu adalah m-dimensi, dengan masyarakat menjadi proyeksi variabel di ruang dan beban menjadi variabel 'serta proyeksi proyeksi pada faktor-faktor yang menjangkau ruang. Varians yang dijelaskan dalam analisis faktor adalah varians dalam ruang faktor umum itu, berbeda dari ruang variabel di mana komponen menjelaskan varians. Ruang variabel di perut ruang gabungan: m common + p faktor unik.
Coba tengok pic saat ini. Ada beberapa (katakanlah,X1 , X2 , X3 ) variabel dengan yang analisis faktor dilakukan, penggalian dua faktor umum. Faktor F1 dan F2 rentang ruang faktor umum "faktor pesawat". Dari banyak variabel yang dianalisis, hanya satu ( X1 ) yang ditampilkan pada gambar. Analisis didekomposisi dalam dua bagian orthogonal, komunalitas C1 dan faktor unik U 1 . Komunalitas terletak pada "faktor pesawat" dan koordinat pada faktor-faktor adalah beban dimana faktor umum memuat X 1 (= koordinat X 1 sendiri pada faktor-faktor). Pada gambar, komunitas dari dua variabel lainnya - proyeksi X 2 danU1 X1 X1 X2 X3 - juga ditampilkan. Akan menarik untuk berkomentar bahwa dua faktor umum dapat, dalam arti, dilihat sebagaikomponen utamadari semua orangkomunalitas"variabel". Sedangkan komponen utama yang biasa dirangkum oleh senioritas varian total multivariat variabel, faktor merangkum juga varians umum multivariat mereka. 11
Mengapa perlu semua kata-kata itu? Saya hanya ingin memberikan bukti pada klaim bahwa ketika Anda menguraikan masing-masing variabel berkorelasi menjadi dua bagian laten ortogonal, satu (A) mewakili tidak berkorelasi (ortogonalitas) antara variabel dan bagian lainnya (B) mewakili keterkaitan mereka (collinearity), dan Anda mengekstrak faktor hanya dari kombinasi B, Anda akan menemukan diri Anda menjelaskan kovarian berpasangan, oleh pemuatan faktor-faktor tersebut. Dalam model faktor kami,cov12≈a1a2 - faktor mengembalikankovarian individu melalui pembebanan. Dalam model PCA, tidak demikian karena PCA menjelaskan varians asli yang tidak terdekomposisi, campuran collinear + ortogonal. Kedua komponen kuat yang Anda pertahankan dan yang berikutnya yang Anda lepas adalah fusi dari bagian (A) dan (B); karenanya PCA dapat memanfaatkan, dengan memuatnya, kovarian hanya secara membabi buta dan kasar.
Daftar kontras PCA vs FA
Demikian pula seperti dalam regresi koefisien adalah koordinat, pada prediktor, baik variabel dependen (s) dan prediksi (s) ( Lihat gambar di bawah "Regresi Berganda", dan di sini juga,) di FApemuatan adalah koordinat, pada faktor-faktor, baik variabel yang diamati dan bagian latennya - komunalitas. Dan persis seperti dalam regresi fakta tidak membuat dependen dan prediktor menjadi subruang satu sama lain, - dalam FA fakta yang sama tidak membuat variabel yang diamati dan faktor laten menjadi subruang satu sama lain. Suatu faktor adalah "alien" terhadap suatu variabel dalam arti yang hampir sama dengan prediktor adalah "alien" terhadap respons dependen. Tetapi dalam PCA, itu adalah cara lain: komponen utama diturunkan dari variabel yang diamati dan terbatas pada ruang mereka.
Jadi, sekali lagi untuk mengulang: m faktor umum FA bukan subruang dari variabel input p . Sebaliknya: variabel membentuk subruang di m + p ( m faktor umum + p faktor unik) union hyperspace. Ketika dilihat dari perspektif ini (yaitu dengan faktor-faktor unik yang tertarik juga) menjadi jelas bahwa FA klasik bukanlah teknik penyusutan dimensionalitas , seperti PCA klasik, tetapi merupakan teknik ekspansi dimensionalitas . Namun demikian, kami memberikan perhatian kami hanya pada bagian kecil ( m dimensional common) dari mengasapi itu, karena bagian ini semata-mata menjelaskan korelasi.
sumber
"Menjelaskan kovarians" vs. menjelaskan varian
Bishop sebenarnya berarti hal yang sangat sederhana. Di bawah model analisis faktor (mis. 12.64)
The off-diagonal part ofΣ consists of covariances between variables; hence Bishop's claim that factor loadings are capturing the covariances. The important bit here is that factor loadings do not care at all about individual variances (diagonal of Σ ).
In contrast, PCA loadingsW˜ are eigenvectors of the covariance matrix Σ scaled up by square roots of their eigenvalues. If only m<k principal components are chosen, then
Further comments
I love the drawings in @ttnphns'es answer (+1), but I would like to stress that they deal with a very special situation of two variables. If there are only two variables under consideration, the covariance matrix is2×2 , has only one off-diagonal element and so one factor is always enough to reproduce it 100% (whereas PCA would need two components). However in general, if there are many variables (say, a dozen or more) then neither PCA nor FA with small number of components will be able to fully reproduce the covariance matrix; moreover, they will usually (even though not necessarily!) produce similar results. See my answer here for some simulations supporting this claim and for further explanations:
So even though @ttnphns's drawings can make the impression that PCA and FA are very different, my opinion is that it is not the case, except with very few variables or in some other special situations.
See also:
Finally:
This is not necessarily correct. Yes, in this examplexi and xj are likely to be correlated, but you are forgetting about other factors. Perhaps the loading vector w2 of the second factor has large values for xi and xk ; this would mean that they are likely to be well correlated as well. You need to take all factors into account to make such conclusions.
sumber
so hugely different
are yours, not mine. Second,it is in fact not the case, except with very few variables
is itself a revelation which has to be tested deeper than you once did.