Dalam pengelompokan spektral, ini adalah praktik standar untuk memecahkan masalah vektor eigen
di mana adalah grafik Laplacian, adalah vektor eigen yang terkait dengan nilai eigen .
Pertanyaan saya: mengapa repot-repot mengambil grafik Laplacian? Tidak bisakah saya memecahkan masalah vektor eigen untuk grafik (matriks afinitas) itu sendiri, seperti yang dilakukan pria dalam video ini ?
PS: Saya membuat pertanyaan yang sama di CrossValidated tapi saya pikir ini adalah saluran yang lebih tepat. Maafkan saya jika saya salah.
machine-learning
clustering
graphs
felipeduque
sumber
sumber
Jawaban:
Konsepnya sama tetapi Anda semakin bingung dengan jenis data. Clustering Spektral sebagai Ng et al. jelaskan tentang pengelompokan data standar sedangkan matriks Laplacian adalah matriks yang diturunkan grafik yang digunakan dalam teori grafik aljabar.
Jadi intinya adalah bahwa setiap kali Anda mengkodekan kesamaan objek Anda ke dalam matriks, matriks ini dapat digunakan untuk pengelompokan spektral.
Jika Anda memiliki data standar yaitu matriks fitur-sampel, Anda dapat menemukan kedekatan atau afinitas atau apa pun yang Anda ingin menyebutnya sebagai matriks dan menerapkan pengelompokan spektral.
Jika Anda memiliki grafik, afinitas ini akan menjadi apa saja seperti matriks adjacency, distance distance atau matriks Laplacialn dan memecahkan fungsi eigen untuk matriks semacam itu memberi Anda hasil yang sesuai.
Poin tentang menggunakan Laplacian daripada kedekatan adalah untuk menjaga apa yang disebut matriks afinitas positif semi-pasti (dan matriks Laplacian yang dinormalisasi adalah pilihan yang lebih baik karena memberi Anda nilai eigen yang dinormalisasi antara 0 dan 2 dan mengungkapkan struktur grafik yang jauh lebih baik).
Jadi, cerita panjangnya adalah bahwa selama Anda memiliki matriks yang berisi afinitas data Anda, Anda dapat menggunakan spektral clustering secara umum. Perbedaannya adalah dalam rincian (ig milik Laplacian dinormalisasi yang baru saja saya sebutkan)
sumber