Kedua pendekatan ini memberikan jaminan yang sangat berbeda.
JL Lemma pada dasarnya mengatakan "Anda memberi saya kesalahan yang Anda inginkan, dan saya akan memberi Anda ruang dimensi rendah yang menangkap jarak hingga kesalahan itu". Ini juga merupakan jaminan berpasangan terburuk : untuk setiap pasangan poin , dll
SVD pada dasarnya menjanjikan "Anda memberi tahu saya apa dimensi yang ingin Anda tinggali, dan saya akan memberi Anda embedding terbaik", di mana "terbaik" didefinisikan sebagai rata-rata : kesalahan total kemiripan sejati versus kemiripan yang diproyeksikan adalah minimum.
Jadi dari perspektif teoretis mereka memecahkan masalah yang sangat berbeda. Dalam praktiknya, yang mana yang Anda inginkan tergantung pada model Anda untuk masalah tersebut, parameter apa yang lebih penting (kesalahan atau dimensi), dan jenis jaminan apa yang Anda butuhkan.
SVD dan JL juga mengekstrapolasi ke poin masa depan juga berbeda.
Artinya, jika Anda menganggap data Anda berasal dari beberapa distribusi yang mendasarinya, pada prinsipnya SVD harus tetap "baik" untuk setiap poin di masa mendatang asalkan sampel tersebut diambil dari distribusi yang sama. Di sisi lain, dimensi target JL tergantung pada jumlah poin, yang berarti bahwa menerapkan transformasi JL ke poin tambahan dapat meningkatkan probabilitas kesalahan.
Ini menjadi relevan jika, misalnya, jika Anda menggunakan pengurangan dimensionalitas sebagai langkah preprocessing untuk beberapa algoritma lainnya. Batas SVD untuk data pelatihan mungkin berlaku pada data uji, tetapi JL tidak.
sumber
Ini adalah kelanjutan dari jawaban Suresh - Saya mencari di Google sedikit setelah membaca jawabannya, dan muncul dengan pemahaman berikut. Saya awalnya akan memposting ini sebagai komentar untuk jawabannya, tetapi terus meningkat.
Tolong tunjukkan kesalahan dalam jawabannya, saya bukan ahli dalam bidang ini.
Dalam beberapa hal, JL dan SVD seperti apel dan jeruk.
1) Masalah yang mereka pecahkan benar-benar berbeda. Satu berkaitan dengan jarak berpasangan, yang lain dengan representasi terbaik. Satu kasus terburuk, yang lain adalah kasus rata-rata.
(Ini tidak tepat, saya akan berkomentar lebih lanjut tentang ini nanti)
3) JL tidak konstruktif, SVD konstruktif - titik ini agak kabur, karena istilah konstruktif tidak didefinisikan secara tepat. Ada algoritma deterministik untuk menghitung SVD, tetapi algoritma untuk menemukan ruang JL adalah acak - lakukan proyeksi acak, jika Anda gagal, coba lagi.(Lihat komentar untuk penjelasan mengenai bagian jawaban yang dicoret).
Sunting: @ john-myles-white telah menulis posting tentang JL untuk memverifikasi klaimnya, dan menunjukkan bagaimana proyeksi dapat dibangun: http://www.johnmyleswhite.com/notebook/2014/03/24/a-note- di-the-johnson-lindenstrauss-lemma /
sumber