Dalam Analisis Faktor (atau dalam PCA), apa artinya faktor memuat lebih dari 1?

10

Saya baru saja menjalankan FA menggunakan rotasi miring (promax) dan item menghasilkan pemuatan faktor 1,041 pada satu faktor, (dan pemuatan faktor -.131, -.119 dan .065 pada faktor-faktor lain menggunakan matriks pola ) . Dan saya tidak yakin apa artinya, saya pikir itu hanya antara -1 dan 1.

Apakah karena rotasi miring? Dan dapatkah memuat melebihi 1 dengan faktor ortogonal?

Rodrigo M. Rosales
sumber

Jawaban:

10

Siapa yang memberi tahu Anda bahwa pemuatan faktor tidak boleh lebih dari 1? Itu bisa terjadi. Apalagi dengan faktor yang sangat berkorelasi.

Kutipan dari laporan ini tentang perintis SEM yang terkenal meringkasnya:

"Kesalahpahaman ini mungkin berasal dari analisis faktor eksplorasi klasik di mana memuat faktor berkorelasi jika matriks korelasi dianalisis dan faktor-faktor terstandarisasi dan tidak berkorelasi (ortogonal). Namun, jika faktor-faktor tersebut berkorelasi (miring), faktor yang dimuat adalah koefisien regresi dan bukan korelasi dan karena itu mereka bisa lebih besar dari yang besarnya. "

nyai
sumber
5

Memuat dalam analisis faktor atau PCA ( lihat 1 , lihat 2 , lihat 3 ) adalah koefisien regresi, bobot dalam kombinasi linear yang memprediksi variabel (item) dengan faktor / komponen standar (unit-variance).

1

Alasan 1: matriks kovarians dianalisis. Jika dianalisis adalah variabel standar, yaitu, analisis didasarkan pada matriks korelasi , kemudian setelah ekstraksi atau setelah rotasi ortogonal (seperti varimax) - ketika faktor / komponen tetap tidak berkorelasi - memuat juga koefisien korelasi. Itu adalah sifat persamaan regresi linier: dengan prediktor standar ortogonal, parameter sama dengan korelasi Pearson. Jadi, dalam kasus seperti itu pemuatan tidak dapat melampaui [-1, 1].

Tetapi jika dianalisis hanya variabel terpusat, yaitu analisis didasarkan pada matriks kovarians , maka pembebanan tidak harus terbatas pada [-1, 1] karena koefisien regresi adalah model seperti itu tidak perlu sama dengan koefisien korelasi. Sebenarnya, mereka adalah kovarian. Perhatikan bahwa ini adalah pemuatan mentah. Terdapat pemuatan "rescaled" atau "standardized" (dijelaskan dalam tautan yang saya berikan pada paragraf 1) yang disusun kembali untuk tidak meninggalkan band [-1, 1].

Alasan 2: rotasi miring. Setelah rotasi miring seperti promax atau oblimin, kami memiliki dua jenis pemuatan: matriks pola (koefisien regresi, atau pemuatan per se) dan matriks struktur (koefisien korelasi). Mereka tidak sama satu sama lain karena alasan yang diberikan di atas: koefisien regresi prediktor berkorelasi berbeda dari korelasi Pearson. Dengan demikian, pemuatan pola dapat dengan mudah melampaui [-1, 1]. Perhatikan bahwa itu benar bahkan ketika matriks korelasi adalah matriks yang dianalisis. Jadi, itu adalah bagaimana ketika faktor / komponen miring.

Alasan 3 (jarang): Kasus Heywood. Kasus Heywood ( hal 6 ) adalah kesulitan dalam algoritma analisis faktor ketika pada iterasi memuat melebihi besaran yang diizinkan secara teoritis - ini terjadi ketika komunalitas melampaui varians. Kasing Heywood adalah situasi yang jarang dan ditemui pada beberapa dataset biasanya ketika ada terlalu sedikit variabel untuk mendukung jumlah faktor yang diminta. Program menginformasikan bahwa ada kesalahan kasus Heywood dan berhenti atau mencoba menyelesaikannya.

ttnphns
sumber