Dalam PCA, ketika jumlah dimensi lebih besar dari (atau bahkan sama dengan) jumlah sampel N , mengapa Anda akan memiliki paling banyak N - 1 vektor eigen bukan nol? Dengan kata lain, pangkat matriks kovarians di antara dimensi d ≥ N adalah N - 1 .
Contoh: Sampel Anda adalah gambar vektor, yang berdimensi , tetapi Anda hanya memiliki N = 10 gambar.
pca
dimensionality-reduction
eigenvalues
GrokingPCA
sumber
sumber
Jawaban:
Pertimbangkan apa yang dilakukan PCA. Sederhananya, PCA (seperti kebanyakan berjalan) menciptakan sistem koordinat baru dengan:
Jadi mari kita ikuti langkah-langkah yang tercantum di atas. (1) Asal usul sistem koordinat baru akan berlokasi di( 1,5 , 1,5 , 1,5 ) . (2) Sumbu sudah sama. (3) Komponen utama pertama akan diagonal dari( 0 , 0 , 0 ) untuk ( 3 , 3 , 3 ) , yang merupakan arah variasi terbesar untuk data ini. Sekarang, komponen utama kedua harus ortogonal dengan yang pertama, dan harus mengarah pada variasi terbesar yang tersisa . Tapi ke arah mana itu? Apakah itu dari(0,0,3) to (3,3,0) , or from (0,3,0) to (3,0,3) , or something else? There is no remaining variation, so there cannot be any more principal components.
WithN=2 data, we can fit (at most) N−1=1 principal components.
sumber