Saya perhatikan akhir-akhir ini bahwa banyak orang sedang mengembangkan tensor ekivalen dari banyak metode (faktorisasi tensor, kernel tensor, tensor untuk pemodelan topik, dll) Saya bertanya-tanya, mengapa dunia tiba-tiba terpesona dengan tensor? Apakah ada makalah baru / hasil standar yang sangat mengejutkan, yang menyebabkan ini? Apakah komputasi jauh lebih murah daripada yang diduga sebelumnya?
Saya tidak menjadi fasih, saya sungguh-sungguh tertarik, dan jika ada petunjuk ke makalah tentang ini, saya ingin membacanya.
Jawaban:
Tensor sering menawarkan representasi data yang lebih alami, misalnya, pertimbangkan video, yang terdiri dari gambar yang jelas berkorelasi dari waktu ke waktu. Anda dapat mengubah ini menjadi sebuah matriks, tetapi itu tidak alami atau intuitif (apa arti faktorisasi dari beberapa representasi matriks dari video?).
Tensor menjadi tren karena beberapa alasan:
sumber
Saya pikir pertanyaan Anda harus dicocokkan dengan jawaban yang sama-sama bebas mengalir dan berpikiran terbuka sebagai pertanyaan itu sendiri. Jadi, inilah dua analogi saya.
Pertama, kecuali Anda seorang ahli matematika murni, Anda mungkin diajarkan probabilitas dan statistik univariat terlebih dahulu. Sebagai contoh, kemungkinan besar contoh OLS pertama Anda mungkin pada model seperti ini: Kemungkinan besar, Anda mengalami penurunan estimasi dengan meminimalkan jumlah kuadrat terkecil: Kemudian Anda menulis FOC untuk parameter dan mendapatkan solusinya:yi=a+bxi+ei TSS=∑i(yi−a¯−b¯xi)2 ∂TTS∂a¯=0
Kemudian Anda diberitahu bahwa ada cara yang lebih mudah untuk melakukannya dengan notasi vektor (matriks):y=Xb+e
dan TTS menjadi:TTS=(y−Xb¯)′(y−Xb¯)
FOC adalah:2X′(y−Xb¯)=0
Dan solusinya adalahb¯=(X′X)−1X′y
Jika Anda mahir dalam aljabar linier, Anda akan tetap menggunakan pendekatan kedua setelah Anda mempelajarinya, karena sebenarnya lebih mudah daripada menuliskan semua jumlah dalam pendekatan pertama, terutama sekali Anda masuk ke statistik multivariat.
Karena itu analogi saya adalah bahwa pindah ke tensor dari matriks mirip dengan pindah dari vektor ke matriks: jika Anda tahu tensor, beberapa hal akan terlihat lebih mudah dengan cara ini.
Kedua, dari mana datangnya tensor? Saya tidak yakin tentang seluruh sejarah benda ini, tetapi saya mempelajarinya dalam mekanika teoretis. Tentu saja, kami memiliki kursus tentang tensor, tetapi saya tidak mengerti apa masalahnya dengan semua cara mewah ini untuk bertukar indeks dalam kursus matematika itu. Semuanya mulai masuk akal dalam konteks mempelajari kekuatan-kekuatan ketegangan.
Jadi, dalam fisika mereka juga mulai dengan contoh sederhana tekanan yang didefinisikan sebagai gaya per satuan luas, karenanya: Ini berarti Anda dapat menghitung vektor gaya dengan mengalikan tekanan (skalar) dengan satuan luas (vektor normal). Saat itulah kita hanya memiliki satu permukaan bidang yang tidak terbatas. Dalam hal ini hanya ada satu kekuatan tegak lurus. Balon besar akan menjadi contoh yang baik.F=p⋅dS F p dS
Namun, jika Anda mempelajari ketegangan di dalam material, Anda berurusan dengan semua kemungkinan arah dan permukaan. Dalam hal ini Anda memiliki kekuatan pada permukaan tertentu yang menarik atau mendorong ke segala arah, tidak hanya yang tegak lurus. Beberapa permukaan terkoyak oleh gaya tangensial "ke samping" dll. Jadi, persamaan Anda menjadi: Gaya masih berupa vektor dan area permukaan masih diwakili oleh vektor normal , tetapi adalah tensor sekarang, bukan skalar.F=P⋅dS F dS P
Ok, skalar dan vektor juga tensor :)
Tempat lain di mana tensor muncul secara alami adalah matriks kovarians atau korelasi. Bayangkan saja ini: bagaimana cara mengubah matriks korelasi sekali ke yang lain ? Anda sadar bahwa kita tidak bisa melakukannya dengan cara ini: mana karena kita perlu menjaga semua positif semi-pasti.C0 C1 Cθ(i,j)=C0(i,j)+θ(C1(i,j)−C0(i,j)), θ∈[0,1] Cθ
Jadi, kita harus menemukan path sehingga , di mana adalah gangguan kecil pada sebuah matriks. Ada banyak jalur berbeda, dan kita bisa mencari jalur terpendek. Itulah bagaimana kita masuk ke geometri Riemannian, manifold, dan ... tensor.δCθ C1=C0+∫θδCθ δCθ
UPDATE: apa tensor, sih?
@amoeba dan yang lainnya masuk ke diskusi yang hidup tentang makna tensor dan apakah itu sama dengan array. Jadi, saya pikir contohnya ada dalam urutan.
Katakanlah, kita pergi ke pasar untuk membeli bahan makanan, dan ada dua pedagang dagang, dan . Kami perhatikan bahwa jika kami membayar dolar ke dan dolar ke maka menjual kami pon apel, dan menjual kami jeruk. Misalnya, jika kita membayar 1 dolar, yaitu , maka kita harus mendapatkan 1 pon apel dan 1,5 jeruk.d1 d2 x1 d1 x2 d2 d1 y1=2x1−x2 d2 y2=−0.5x1+2x2 x1=x2=1
Kita dapat menyatakan hubungan ini dalam bentuk matriks :P
Maka para pedagang menghasilkan apel dan jeruk sebanyak ini jika kita membayarnya dolar:x y=Px
Ini bekerja persis seperti matriks dengan perkalian vektor.
Sekarang, katakanlah alih-alih membeli barang dari pedagang ini secara terpisah, kami menyatakan bahwa ada dua bundel pengeluaran yang kami gunakan. Kami membayar baik 0,71 dolar, atau kami membayar 0,71 dolar dan menuntut 0,71 dolar dari kembali. Seperti pada kasus awal, kami pergi ke pasar dan menghabiskand1 d2 z1 z2
sumber
So, let's look at an example where we spend just z1=1.42 on bundle 1. In this case, the first merchant gets x1=1 dollars, and the second merchant gets the same x2=1.
Sebelumnya Anda mengatakan bahwa bundel pertama adalah kitapay both 0.71 dollars
. Jadi, pengeluaran 1,42 untuk bundel pertama harus mendapatkan 0,71 masing-masing dan bukan 1, bukan?Ini bukan jawaban untuk pertanyaan Anda, tetapi komentar panjang tentang masalah yang telah diangkat di sini dalam komentar oleh orang yang berbeda, yaitu: apakah pembelajaran mesin "tensor" sama dengan tensor dalam matematika?
Sekarang, menurut Cichoki 2014, Era Pemrosesan Data Besar: Pendekatan Baru melalui Tensor Networks dan Tompor Decompositions , dan Cichoki et al. 2014, Dekomposisi Tensor untuk Aplikasi Pemrosesan Sinyal ,
Ini bukan bagaimana tensor didefinisikan dalam matematika dan fisika!
Kesimpulan saya adalah: (a) tensor pembelajaran mesin bukan tensor matematika / fisika, dan (b) sebagian besar tidak berguna untuk melihatnya sebagai elemen dari produk tensor.
Sebaliknya, mereka adalah generalisasi multidimensi dari matriks. Sayangnya, tidak ada istilah matematika yang mapan untuk itu, sehingga tampaknya makna baru "tensor" ini sekarang ada.
sumber
Sebagai seseorang yang mempelajari dan membangun jaringan saraf dan telah berulang kali mengajukan pertanyaan ini, saya sampai pada kesimpulan bahwa kita meminjam aspek berguna dari notasi tensor hanya karena mereka membuat derivasi lebih mudah dan menjaga gradien kita dalam bentuk asli mereka. The rantai aturan tensor adalah salah satu alat derivasi paling elegan yang pernah saya lihat. Notasi tensor lebih lanjut mendorong penyederhanaan yang efisien secara komputasi yang hanya mimpi buruk untuk ditemukan ketika menggunakan versi luas umum kalkulus vektor.
Dalam Vektor / Matriks kalkulus misalnya ada 4 jenis produk matriks (Hadamard, Kronecker, Biasa, dan Elementwise) tetapi dalam kalkulus tensor hanya ada satu jenis perkalian namun mencakup semua perkalian matriks dan banyak lagi. Jika Anda ingin bermurah hati, interpretasikan tensor menjadi array multi dimensi yang kami maksudkan untuk menggunakan kalkulus berbasis tensor untuk mencari turunan, bukan objek yang kami manipulasi adalah tensor .
Dalam semua kejujuran kita mungkin menyebut tensor array multi-dimensi kita karena kebanyakan ahli pembelajaran mesin tidak terlalu peduli tentang mengikuti definisi matematika atau fisika tingkat tinggi. Kenyataannya adalah kita hanya meminjam Konvensi Summasi dan Kalkulus Einstein yang berkembang dengan baik yang biasanya digunakan ketika menggambarkan tensor dan tidak ingin mengatakan kalkulasi berdasarkan konvensi penjumlahan konvensi penjumlahan Einstein berulang kali. Mungkin suatu hari kita mungkin mengembangkan serangkaian notasi dan konvensi baru yang hanya mencuri apa yang mereka butuhkan dari kalkulus tensor khusus untuk menganalisis jaringan saraf, tetapi sebagai bidang muda yang membutuhkan waktu.
sumber
Sekarang saya sebenarnya setuju dengan sebagian besar isi dari jawaban yang lain. Tapi saya akan berperan sebagai pengacara Iblis pada satu titik. Sekali lagi, ini akan mengalir bebas, jadi permintaan maaf ...
Google mengumumkan sebuah program bernama Tensor Flow untuk pembelajaran yang mendalam. Ini membuat saya bertanya-tanya apa yang 'tensor' tentang pembelajaran yang mendalam, karena saya tidak dapat membuat koneksi ke definisi yang saya lihat.
Sekarang idenya adalah untuk menyatukan sekelompok transformasi seperti itu untuk sampai pada representasi yang berguna dari koordinat asli. Jadi, misalnya, setelah transformasi gambar terakhir, regresi logistik sederhana akan menghasilkan akurasi klasifikasi yang sangat baik; sedangkan pada gambar mentah itu pasti tidak.
Sekarang, hal yang tampaknya telah hilang dari pandangan adalah sifat invarian yang dicari dalam tensor yang tepat. Terutama ketika dimensi dari variabel yang diubah mungkin berbeda dari lapisan ke lapisan. [Misalnya beberapa hal yang saya lihat pada tensor tidak masuk akal untuk Jacobian non-persegi - saya mungkin kurang beberapa metode]
Apa yang telah dipertahankan adalah gagasan transformasi variabel, dan bahwa representasi tertentu dari vektor mungkin lebih berguna daripada yang lain untuk tugas-tugas tertentu. Analogi adalah apakah lebih masuk akal untuk mengatasi masalah di Cartesian atau koordinat kutub.
EDIT sebagai respons terhadap @Aksakal:
Vektor tidak dapat dipelihara dengan sempurna karena perubahan dalam jumlah koordinat. Namun, dalam beberapa hal setidaknya informasi yang berguna dapat disimpan dalam transformasi. Sebagai contoh dengan PCA kita dapat menjatuhkan koordinat, jadi kita tidak bisa membalikkan transformasi tetapi pengurangan dimensi mungkin berguna meskipun demikian. Jika semua transformasi berturut-turut tidak dapat dibalik, Anda dapat memetakan kembali dari lapisan kedua dari belakang ke ruang input. Seperti itu, saya hanya melihat model probabilistik yang memungkinkan itu (RBM) dengan pengambilan sampel.
sumber
Berikut ini adalah kutipan (untuk konteks) yang diedit dengan ringan dari Faktorisasi Tensor Non-Negatif dengan Aplikasi untuk Statistik dan Visi Komputer, A. Shashua dan T. Hazan yang masuk ke jantung mengapa setidaknya beberapa orang terpesona dengan tensor.
sumber
[EDIT] Baru menemukan buku karya Peter McCullagh, Metode Tensor dalam Statistik .
Tensor menampilkan properti yang menarik dalam identifikasi campuran yang tidak diketahui dalam sinyal (atau gambar), terutama di sekitar gagasan dekomposisi tensor Canonical Polyadic (CP), lihat misalnya Tensor : Pengantar Singkat , P. Comon, 2014. Bidang ini dikenal dengan nama "pemisahan sumber buta (BSS)":
Beberapa hasil keunikan telah diturunkan untuk tensor orde ketiga baru-baru ini: Pada keunikan dekomposisi poliadik kanonik dari tensor orde ketiga ( bagian 1 , bagian 2 ), I. Domanov et al. , 2013.
Dekomposisi tensor adalah nodaways yang sering dikaitkan dengan dekomposisi yang jarang, misalnya dengan memaksakan struktur pada faktor dekomposisi (ortogonalitas, Vandermonde, Hankel), dan peringkat rendah, untuk mengakomodasi dengan keunikan.
Dengan meningkatnya kebutuhan untuk analisis data yang tidak lengkap dan penentuan pengukuran kompleks dari sensor array, tensor semakin banyak digunakan untuk penyelesaian matriks, analisis variabel laten dan pemisahan sumber.
Catatan tambahan: ternyata, dekomposisi Canonical Polyadic juga setara dengan dekomposisi Waring dari polinom homogen sebagai jumlah kekuatan bentuk linear, dengan aplikasi dalam identifikasi sistem (blok terstruktur, paralel Wiener-Hammerstein atau model ruang-ruang nonlinier).
sumber
Bolehkah saya merekomendasikan buku saya: Kroonenberg, PM Applied Multiway Data Analysis dan Smilde et al. Analisis Multiway. Aplikasi dalam Ilmu Kimia (keduanya Wiley). Yang menarik juga mungkin artikel saya: Kroonenberg, PM (2014). Sejarah analisis komponen multi jalur dan analisis korespondensi tiga arah. Dalam Blasius, J. dan Greenacre, MJ (Eds.). Visualisasi dan verbalisasi data (hal. 77-94). New York: Chapman & Hall / CRC. ISBN 9781466589803.
Referensi ini berbicara tentang data multway daripada tensor, tetapi merujuk ke area penelitian yang sama.
sumber
Memang benar bahwa orang-orang di Machine Learning tidak melihat tensor dengan perawatan yang sama seperti ahli matematika dan dokter. Berikut ini adalah makalah yang dapat menjelaskan perbedaan ini: Comon P., "Tensor: pengantar singkat" IEEE Sig. Proc Majalah , 31, Mei 2014
sumber