Akankah jaringan syaraf pembelajaran yang dalam berjalan di komputer kuantum?

15

Deep Learning (beberapa lapis jaringan saraf tiruan yang digunakan dalam tugas pembelajaran mesin yang diawasi dan tidak diawasi) adalah alat yang sangat kuat untuk banyak tugas pembelajaran mesin yang paling sulit: pengenalan gambar, pengenalan video, pengenalan ucapan, dll. Mengingat bahwa saat ini satu dari algoritma pembelajaran mesin yang paling kuat, dan Quantum Computing secara umum dianggap sebagai pengubah permainan untuk tugas-tugas perhitungan tertentu yang sangat sulit, saya bertanya-tanya apakah ada gerakan menggabungkan keduanya.

  • Bisakah algoritma pembelajaran yang mendalam berjalan di komputer kuantum?
  • Apakah masuk akal untuk mencoba?
  • Apakah ada algoritma kuantum lain yang akan membuat pembelajaran yang mendalam menjadi tidak relevan?
Bob Swain
sumber
1
Saya bukan ahli, tetapi saya membayangkan algoritma HHL akan berguna dalam konteks ini.
DaftWullie

Jawaban:

8
  1. Ya, semua algoritma klasik dapat dijalankan pada komputer kuantum, apalagi algoritma klasik yang melibatkan pencarian bisa mendapatkan meningkatkan waktu asli dengan menggunakan algoritma grovers. Contoh yang muncul dalam pikiran adalah memperlakukan fine tuning parameter jaringan saraf sebagai masalah "mencari koefisien".waktu asli

  2. Untuk faktanya ada keuntungan komputasi yang jelas dalam beberapa proses: ya.

  3. Tidak yang saya tahu. Tetapi seseorang dengan keahlian yang lebih banyak bisa bermain di sini jika mereka mau. Satu hal yang terlintas dalam pikiran: seringkali kita dapat menggunakan Pembelajaran Dalam dan bentuk-bentuk Kecerdasan Buatan lainnya untuk mempelajari masalah kimia, dan fisika karena simulasi itu mahal atau tidak praktis. Dalam domain ini, Komputer Quantum kemungkinan akan membantai leluhur klasik mereka karena kemampuan mereka untuk mensimulasikan sistem kuantum (seperti Nuclear Chemistry) secara efektif waktu nyata atau lebih cepat.

Terakhir saya berbicara dengannya, Mario Szegedy tertarik pada hal ini, mungkin ada banyak peneliti lain yang sedang mengerjakannya sekarang.

frogeyedpeas
sumber
6
Saya tidak yakin algoritma Grover relevan di sini. Algoritma Grover menemukan satu input unik yang persis menghasilkan output tertentu. OTOH, jaringan saraf pada dasarnya sangat tidak unik, dan mereka juga tidak benar-benar tepat - paling akurat secara asimptik.
leftaroundabout
Hal ini dapat diperlakukan sebagai masalah pencarian basis data dengan melihat posisi super semua negara bagian bobotnya. Biarkan fungsi pencarian mengembalikan 1, jika norma turunan dari neural net pada input standar dan bobotnya adalah kurang dari toleransi yang diinginkan.
frogeyedpeas
1
Itu sama sekali tidak berguna. Untuk masalah nontrivial akan ada banyak kombinasi bobot di mana gradiennya nol; bahkan jika algoritma Grover memberi Anda salah satu dari ini umumnya tidak akan menjadi minimum, apalagi global minimum.
Leftaroundabout
Saya tidak setuju, mengingat protokol berikut: penurunan gradien vanilla hingga beberapa ambang, kemudian menerapkan pencarian Grover di antara ruang bobot yang sangat terbatas untuk mengambil minimum hard dalam beberapa batas kesalahan, bagian akhirnya adalah di mana gradient descent biasanya menyatu sangat pelan-pelan ke optimal lokal, dan saya jadi penasaran apakah di situlah beralih ke Grover Search bisa jadi menarik
frogeyedpeas
1
Hm, itu mungkin berhasil; Namun pada bagian akhir saya yakin Anda juga bisa melakukan lebih baik daripada gradient descent dengan cara klasik. Biconjugate-gradient menjadi kandidat yang jelas.
leftaroundtentang
13

Ini adalah pertanyaan terbuka, tapi ya, ada banyak pekerjaan yang dilakukan di bagian depan ini.

Beberapa klarifikasi

Pertama-tama, perlu dicatat bahwa ada dua cara utama untuk menggabungkan pembelajaran mesin (dan pembelajaran mendalam khususnya) dengan mekanika kuantum / komputasi kuantum:

Terapkan teknik pembelajaran mesin klasik untuk mengatasi masalah yang timbul dalam konteks mekanika kuantum / informasi kuantum / perhitungan kuantum . Daerah ini tumbuh terlalu cepat bagi saya untuk bahkan mencoba daftar referensi yang layak, jadi saya hanya akan menghubungkan ke beberapa karya terbaru dalam arah ini: pada 1803,04114 penulis menggunakan pendekatan pembelajaran mesin untuk menemukan sirkuit untuk menghitung tumpang tindih antara dua negara (ada sejumlah karya lain dalam arah yang sama), dan pada 1803.05193 penulis mempelajari bagaimana jaringan saraf yang dalam dapat digunakan untuk menemukan skema koreksi kontrol kuantum.

2) QM

Studi algoritma kuantum untuk menganalisis data besar , yang sering kali berjumlah untuk mencari " generalisasi kuantum " dari algoritma pembelajaran mesin klasik. Anda dapat melihat jawaban saya yang lain untuk mendapatkan beberapa referensi dasar tentang topik ini. Lebih khusus untuk kasus pembelajaran mendalam , pada 1412.3489 (tepat disebut Quantum Deep Learning ) penulis mengusulkan metode (efektif, algoritma kuantum) untuk secara umum mempercepat pelatihan mesin Boltzmann yang dalam dan terbatas . Referensi lain yang relevan di sini adalah 1712.05304 , di mana penulis mengembangkan algoritma kuantum kedalaman rendah untuk melatih mesin kuantum Boltzmann. Lihat 1708.09757, serta referensi dalam jawaban yang ditautkan, untuk menemukan lebih banyak karya tentang ini. Perhatikan bahwa percepatan yang diklaim dalam karya ini dapat sangat bervariasi, dari percepatan eksponensial hingga polinomial.

Terkadang percepatan berasal dari penggunaan algoritma kuantum untuk memecahkan masalah aljabar linier tertentu (lihat misalnya Tabel 1 pada ( 1707.08561 ), kadang-kadang berasal dari apa yang pada dasarnya sama dengan penggunaan (variasi) pencarian Grover, dan terkadang dari yang lain hal-hal (tapi kebanyakan keduanya). Kutipan dari Dunjko dan Briegel di sini :

Gagasan untuk peningkatan kuantum untuk ML secara kasar dapat diklasifikasikan ke dalam dua kelompok: a) pendekatan yang bergantung pada pencarian Grover dan amplifikasi amplitudo untuk mendapatkan kecepatan-up kuadratik, dan, b) pendekatan yang menyandikan informasi yang relevan ke dalam amplitudo kuantum , dan yang berpotensi bahkan untuk peningkatan eksponensial. Kelompok kedua dari pendekatan mungkin membentuk garis penelitian paling maju dalam ML kuantum, dan mengumpulkan alat kuantum kebanyakan - paling khusus aljabar linier kuantum, digunakan dalam proposal ML kuantum.

Jawaban lebih langsung untuk tiga pertanyaan

Setelah mengatakan hal di atas, izinkan saya lebih langsung menjawab tiga poin yang Anda angkat:

  1. Bisakah algoritma pembelajaran yang mendalam berjalan di komputer kuantum? Paling pasti ya: jika Anda dapat menjalankan sesuatu pada komputer klasik, Anda dapat melakukannya pada komputer kuantum. Namun, pertanyaan yang harus ditanyakan adalah dapatkah suatu algoritma pembelajaran mesin kuantum (dalam) menjadi lebih efisien daripada rekan-rekan klasik ? Jawaban atas pertanyaan ini lebih sulit. Mungkin ya , ada banyak proposal ke arah ini, tetapi terlalu dini untuk mengatakan apa yang akan atau tidak akan berhasil.

  2. Apakah masuk akal untuk mencoba? Iya!

  3. Apakah ada algoritma kuantum lain yang akan membuat pembelajaran yang mendalam menjadi tidak relevan? Ini sangat tergantung pada apa yang Anda maksud dengan " tidak relevan ". Maksud saya, untuk apa yang diketahui saat ini, mungkin ada algoritma klasik yang akan membuat pembelajaran mendalam menjadi "tidak relevan".
glS
sumber
3
Dalam konteks jawaban ini, saya ingin menyebutkan makalah baru-baru ini yang menunjukkan bagaimana algoritma optimasi perkiraan kuantum dapat digunakan untuk melatih jaringan saraf (mesin Boltzmann terbatas) dengan menggunakan perkiraan pengambilan sampel Gibbs pada komputer kuantum universal.
Mark Fingerhuth
1
@MarkFingerhuth Saya menambahkannya ke jawabannya, terima kasih untuk penunjuknya (dan selamat datang di situs!)
glS
2

Sini adalah perkembangan terbaru dari Xanadu, sirkuit kuantum fotonik yang meniru jaringan saraf. Ini adalah contoh dari jaringan saraf yang berjalan pada komputer kuantum.

Sirkuit fotonik ini berisi interferometer dan gerbang pemeras yang meniru fungsi penimbangan NN, gerbang pemindahan yang bertindak sebagai bias dan transformasi non-linear yang mirip dengan fungsi ReLU dari NN.

Mereka juga menggunakan sirkuit ini untuk melatih jaringan untuk menghasilkan status kuantum dan juga mengimplementasikan gerbang kuantum.

Berikut adalah publikasi dan kode mereka yang digunakan untuk melatih sirkuit . Berikut ini adalah artikel medium yang menjelaskan sirkuit mereka.

artha
sumber
2

Semua jawaban di sini tampaknya mengabaikan batasan praktis mendasar:

Deep Learning secara khusus bekerja paling baik dengan data besar. MNIST adalah 60000 gambar, ImageNet adalah 14 Juta gambar.

Sementara itu, komputer kuantum terbesar saat ini memiliki 50 ~ 72 Qbits.

Bahkan dalam skenario paling optimistis, komputer kuantum yang dapat menangani volume data yang akan membutuhkan algoritma Pembelajaran Jauh, sebaliknya metode pemodelan yang lebih tradisional tidak akan ada dalam waktu dekat.

Jadi menerapkan QC pada Pembelajaran Jauh mungkin merupakan keingintahuan teoritis yang bagus, tetapi bukan sesuatu yang segera akan menjadi praktis.

Alex Kinman
sumber