Pertanyaan Anda membahas masalah pemulihan "tepat" (kami ingin memulihkan k-jarang x persis diberi Ax ). Dalam berikut ini saya akan fokus pada versi "robust", di mana x adalah vektor sewenang-wenang dan tujuan dari algoritma pemulihan adalah untuk menemukan pendekatan k sparse x′ ke x (perbedaan ini sebenarnya penting untuk beberapa diskusi di bawah ini ). Secara resmi Anda ingin mengikuti masalah (sebut saja P1 ):
Desain sedemikian rupa sehingga untuk setiap x satu dapat pulih x ′ di mana
‖ x - x ′ ‖ L ≤Axx′∥x−x′∥L≤
minx"C∥x−x"∥R , di mana berkisar di atas semua vektor sparse.x"k
Di sini, dan menunjukkan norma kiri dan kanan, dan C adalah "faktor aproksimasi". Ada berbagai pilihan yang mungkin untuk ‖ ⋅ ‖ L dan ‖ ⋅ ‖ R . Untuk konkret, orang dapat berpikir bahwa keduanya sama dengan ℓ 2 atau ℓ 1 ; itu bisa menjadi lebih berantakan. ‖ ⋅ ‖ R∥⋅∥L∥⋅∥RC∥⋅∥L∥⋅∥Rℓ2ℓ1
Sekarang untuk beberapa analog dan generalisasi.
Dasar sewenang-wenang. Pertama, amati bahwa skema apa pun yang memenuhi definisi di atas dapat digunakan untuk menyelesaikan masalah yang lebih umum, di mana sinyal yang dipulihkan jarang dalam basis yang sewenang-wenang (katakanlah, wavelet Fourier), bukan hanya yang standar. Biarkan B menjadi matriks dasar. Secara formal, vektor u adalah k -sparse di dasar B jika u = B v di mana v adalah k -sparse. Sekarang kita dapat mempertimbangkan masalah umum (sebut saja P B ):x′BukBu=BvvkPB
Desain sedemikian sehingga diberikan A B x , orang dapat memulihkan x ′ di mana ‖ x - x ′ ‖ L ≤ABABxx′∥x−x′∥L≤
, di mana x " rentang atas semua vektor yang k -sparse di B .minx"C∥x−x"∥Rx"kB
Satu dapat mengurangi masalah ini ke masalah sebelumnya dengan mengubah dasar, yaitu, menggunakan matriks pengukuran A B = A B - 1 . Jika kita memiliki solusi untuk P 1 dalam norma ℓ 2 (yaitu, norma kiri dan kanan sama dengan ℓ 2 ), kita juga mendapatkan solusi untuk P B dalam norma ℓ 2 . Jika P 1 menggunakan norma-norma lain, kami menyelesaikan P B dalam norma-norma yang dimodifikasi dengan mengubah basis.P1AB=AB−1P1ℓ2ℓ2PBℓ2P1PB
Satu peringatan di atas adalah bahwa dalam pendekatan atas, kita perlu mengetahui matriks dalam rangka untuk menentukan A B . Mungkin mengejutkan, jika kita membiarkan pengacakan ( A B tidak tetap melainkan dipilih secara acak), adalah mungkin untuk memilih A B dari distribusi tetap yang independen dari B . Inilah yang disebut sebagai properti universalitas .BABABABB
Kamus Generalisasi selanjutnya dapat diperoleh dengan menjatuhkan persyaratan bahwa adalah basis. Sebagai gantinya, kami dapat mengizinkan B memiliki lebih banyak baris daripada kolom. Matriks semacam itu disebut kamus (overcomplete). Salah satu contoh populer adalah matriks identitas di atas matriks Fourier. Contoh lain adalah matriks di mana baris adalah vektor karakteristik dari semua interval dalam {1 ... n}; dalam hal ini, himpunan { B u : u adalah k-sparse } berisi semua " k- histogram", yaitu, fungsi konstan sebagian lebih dari {1 ... n} dengan paling banyak k buah.BBBu:u is k-sparsekk
Sejauh yang saya tahu tidak ada teori umum untuk kamus sewenang-wenang semacam itu, meskipun ada cukup banyak pekerjaan pada topik ini. Lihat misalnya,
Candes-Eldar-Needell'10 atau
Donoho-Elad-Temlyakov, Transaksi IEEE tentang Teori Informasi, 2004 .
Sketsa histogram diselidiki secara luas dalam streaming dan literatur basis data, misalnya
Gilbert-Guha-Indyk-Kotidis-Muthukrishnan-Strauss, STOC 2002 atau
Thaper-Guha-Indyk-Koudas, SIGMOD 2002 .
Model. (juga disebutkan oleh Arnab). Generalisasi yang berbeda adalah untuk memperkenalkan pembatasan pada pola sparsity. Biarkan menjadi subset dari k -subset dari {1 ... n}. Kami mengatakan bahwa u adalah M -sparse jika dukungan u termasuk dalam unsur M . Kita sekarang dapat menimbulkan masalah (menyebutnya P M ):MkuMuMPM
Desain sehingga untuk setiap x satu dapat memulihkan x ' di mana ‖ x - x ' ‖ L ≤Axx′∥x−x′∥L≤
, di mana x " berkisar pada semuavektor M- sparse.minx"C∥x−x"∥Rx"M
Misalnya, unsur-unsur bisa dari bentuk I 1 ∪ ... ∪ aku k , di mana setiap saya saya sesuai dengan salah satu "sub-blok" dari {1 ... n} dari beberapa panjang b , yaitu, I i adalah dari bentuk {jb + 1 ... (j + 1) b} untuk beberapa j . Ini adalah apa yang disebut model "block sparsity". MI1∪…∪IkIibIij
Manfaat dari model adalah bahwa seseorang dapat menghemat jumlah pengukuran, dibandingkan dengan pendekatan sparsity generik . Ini karena ruang sinyal M- sparse lebih kecil daripada ruang semua sinyal k- sparse, sehingga matriks A perlu menyimpan lebih sedikit informasi. Untuk lebih lanjut, lihat
Baraniuk-Cevher-Duarte-Hegde, Transaksi IEEE pada Teori Informasi, 2010 atau
Eldar-Mishali, Transaksi IEEE pada Teori Informasi, 2009 .kMkA
Semoga ini membantu.
Saya kira bahwa, pada tingkat generalitas di mana saya mengajukan pertanyaan, makalah "Kompresi sumber yang dapat dicoba" oleh Trevisan, Vadhan dan Zuckerman (2004) juga memenuhi syarat sebagai satu jawaban yang mungkin. Mereka menunjukkan bahwa dalam banyak kasus, jika sumber string input memiliki kompleksitas rendah (misalnya, disampel oleh mesin logspace), maka seseorang dapat mengompres, dan mendekompresi, dalam waktu polinomial untuk memanjang konstanta aditif menjauh dari entropi sumber.
Saya tidak benar-benar tahu apakah penginderaan terkompresi dapat dimasukkan ke dalam teori kompresi yang lebih besar.
sumber
Salah satu analog penginderaan tekan dalam pembelajaran mesin ketika Anda mencoba untuk memperkirakan vektor berat dimensi tinggi (misalnya, dalam klasifikasi / regresi) dari ukuran sampel yang sangat kecil. Untuk berurusan dengan sistem persamaan linear yang tidak ditentukan dalam pengaturan seperti itu, orang biasanya memberlakukan sparsity (melalui hukuman l0 atau l1) pada vektor bobot yang dipelajari. Untuk melihat koneksi, pertimbangkan masalah klasifikasi / regresi berikut dari pembelajaran mesin:
Mewakili N contoh dimensi D masing-masing (D >> N) sebagai matriks NxD X. Mewakili respons N (satu untuk setiap contoh) sebagai vektor Nx1 Y. Tujuannya adalah untuk memecahkan untuk theta vektor Dx1 melalui persamaan berikut : Y = X * theta
Sekarang di sini adalah analogi masalah ini untuk penginderaan tekan (CS): Anda ingin memperkirakan / mengukur theta yang merupakan vektor dimensi D (mirip dengan "sinyal" yang tidak diketahui dalam CS). Untuk memperkirakan ini, Anda menggunakan matriks X (mirip dengan matriks desain dalam CS) dan pengukuran N 1-D Y (mirip dengan sinyal terkompresi dalam CS, karena D >> N).
sumber
Lihat: http://www.damtp.cam.ac.uk/user/na/people/Anders/Inf_CS43.pdf
sumber