Saya telah membaca tentang dekomposisi nilai singular (SVD). Di hampir semua buku teks disebutkan bahwa itu faktorisasi matriks menjadi tiga matriks dengan spesifikasi yang diberikan.
Tapi apa intuisi di balik pemisahan matriks dalam bentuk seperti itu? PCA dan algoritma lain untuk pengurangan dimensi adalah intuitif dalam arti bahwa algoritma memiliki properti visualisasi yang bagus tetapi dengan SVD bukan itu masalahnya.
matrix
linear-algebra
svd
intuition
SHASHANK GUPTA
sumber
sumber
Jawaban:
Kemudian baca gambar ini menjadi R dan dapatkan bagian matriks dari struktur yang dihasilkan, mungkin menggunakan perpustakaan
pixmap
.Jika Anda menginginkan panduan langkah demi langkah tentang cara mereproduksi hasil, Anda dapat menemukan kode di sini .
Hitung SVD:
menghasilkan dua gambar berikut:
Di sebelah kiri kita dapat dengan mudah melihat garis-garis vertikal / horizontal pada gambar peringkat-1.
Yang cukup menarik: kita melihat bagian-bagian dari gambar asli yang sulit direpresentasikan sebagai superposisi garis-garis vertikal / horizontal, sebagian besar rambut hidung diagonal dan beberapa tekstur, dan mata!
sumber
Biarkan (jadi mengkuantifikasi daya ledak dalam arah ). Misalkan vektor satuan didefinisikan sehingga Persamaan (2) dapat diekspresikan secara ringkas menggunakan notasi matriks sebagai mana adalah matriks yang kolom ke- adalah , adalah matriks yang Kolom th adalah , danσi=∥Avi∥2 σi A vi ui Avi=σiuifor i=1,…,n.(2) AV=UΣ,(3) V n×n i vi U m×n i ui Σ adalah matriks diagonal dengan entri diagonal ke- adalah . Matriks adalah ortogonal, sehingga kita dapat mengalikan kedua sisi (3) dengan untuk mendapatkan
Tampaknya kita sekarang telah menurunkan SVD dengan hampir nol upaya. Sejauh ini tidak ada langkah yang sulit. Namun, bagian penting dari gambar itu hilang - kita belum tahu bahwa itu ortogonal.n×n i σi V VT A=UΣVT. A U
Inilah fakta penting, bagian yang hilang: ternyata ortogonal bagi : Saya mengklaim bahwa jika ini tidak benar, maka tidak akan optimal untuk masalah (1). Memang, jika (4) tidak puas, maka akan mungkin untuk meningkatkan dengan mengganggunya sedikit ke arah .Av1 Av2 ⟨Av1,Av2⟩=0.(4) v1 v1 v2
Misalkan (untuk kontradiksi) bahwa (4) tidak puas. Jika sedikit terganggu dalam arah ortogonal , norma tidak berubah (atau setidaknya, perubahan dalam norma dapat diabaikan). Ketika saya berjalan di permukaan bumi, jarak saya dari pusat bumi tidak berubah. Namun, ketika yang terganggu ke arah , vektor yang terganggu di non-orthogonal arah , dan perubahan norma adalah non-diabaikan . Normav1 v2 v1 v1 v1 v2 Av1 Av2 Av1 Av1 dapat ditingkatkan dengan jumlah yang tidak dapat diabaikan. Ini berarti bahwa tidak optimal untuk masalah (1), yang merupakan kontradiksi. Saya suka argumen ini karena: 1) intuisi sangat jelas; 2) intuisi dapat dikonversi langsung menjadi bukti yang kuat.v1
Argumen serupa menunjukkan bahwa adalah ortogonal untuk dan , dan seterusnya. Vektor adalah pasangan ortogonal. Ini berarti bahwa vektor satuan dapat dipilih untuk berpasangan orthogonal, yang berarti matriks atas adalah matriks ortogonal. Ini melengkapi penemuan kami tentang SVD.Av3 Av1 Av2 Av1,…,Avn u1,…,un U
Untuk mengubah argumen intuitif di atas menjadi bukti yang kuat, kita harus menghadapi kenyataan bahwa jika terganggu dalam arah , vektor yang terganggu bukan benar-benar vektor satuan. (Normalnya adalah .) Untuk mendapatkan bukti yang kuat, tentukan Vektor benar-benar merupakan vektor satuan. Tetapi seperti yang Anda dapat dengan mudah menunjukkan, jika (4) tidak puas, maka untuk nilai cukup kecil kita memiliki (dengan asumsi bahwa tandav1 v2 v~1=v1+ϵv2 1+ϵ2−−−−−√ v¯1(ϵ)=1−ϵ2−−−−−√v1+ϵv2. v¯1(ϵ) ϵ f(ϵ)=∥Av¯1(ϵ)∥22>∥Av1∥22 ϵ dipilih dengan benar). Untuk menunjukkan ini, cukup periksa bahwa . Ini berarti bahwa tidak optimal untuk masalah (1), yang merupakan kontradiksi.f′(0)≠0 v1
(Omong-omong, saya sarankan membaca penjelasan Qiaochu Yuan tentang SVD di sini . Khususnya, lihat "Kunci lemma # 1", yang kita bahas di atas. Seperti yang dikatakan Qiaochu, kunci lemma # 1 adalah "hati teknis dekomposisi nilai singular ".)
sumber
Bung ambil satu jam sehari Anda dan saksikan kuliah ini: https://www.youtube.com/watch?v=EokL7E6o1AE
Pria ini super lurus ke depan, penting untuk tidak melewatkan semua itu karena semuanya datang bersama pada akhirnya. Bahkan jika itu mungkin tampak agak lambat di awal, dia mencoba untuk menjabarkan titik kritis, yang dia lakukan!
Saya akan meringkaskannya untuk Anda, daripada hanya memberi Anda tiga matriks yang dilakukan semua orang (karena itu membingungkan saya ketika saya membaca deskripsi lainnya). Dari mana matriks itu berasal dan mengapa kita mengaturnya seperti itu? Ceramahnya berhasil! Setiap matriks (pernah dalam sejarah everness) dapat dibangun dari matriks dasar dengan dimensi yang sama, lalu memutarnya, dan merentangkannya (ini adalah teorema dasar aljabar linier). Masing-masing dari tiga matriks yang orang lempar mewakili matriks awal (U), matriks penskalaan (sigma), dan matriks rotasi (V).
Matriks penskalaan menunjukkan kepada Anda vektor rotasi mana yang mendominasi, ini disebut nilai singular. Dekomposisi adalah penyelesaian untuk U, sigma, dan V.
sumber