Apakah ada bukti formal bahwa komputasi kuantum atau akan lebih cepat dari komputasi klasik?

15

Daripada bukti empiris, dengan prinsip formal apa kita telah membuktikan bahwa komputasi kuantum akan lebih cepat daripada komputasi tradisional / klasik?

Alex Moore-Niemi
sumber
5
@vzn: model rangkaian memiliki implementasi dalam perangkap ion, yang akan segera dapat menangani sekitar 10 qubit. Mesin Dwave tidak menerapkan model adiabatik, tetapi sesuatu yang disebut "quantum annealing", yang saat ini tidak diketahui menghasilkan bahkan percepatan dugaan untuk masalah apa pun.
Peter Shor
4
@vzn: Anda selalu dapat melihat artikel wikipedia ini (tertaut dari artikel yang Anda tautkan ). Komputasi adiabatik kuantum harus tetap dalam kondisi dasar. Anil kuantum tidak perlu. Dari wikipedia: "Jika laju perubahan [dalam prosesor anil kuantum] dari bidang transversal cukup lambat, sistem tetap dekat dengan keadaan dasar Hamiltonian sesaat, yaitu komputasi kuantum adiabatik." DWave baru-baru ini berhenti mengatakan itu melakukan "komputasi adiabatik kuantum", dan mulai mengatakan itu melakukan "kuantum anil".
Peter Shor
2
@telah: Saya cukup yakin bahwa DWave akan segera mengimplementasikan Hamiltonian yang lebih fleksibel, tetapi itu tidak akan menyelesaikan masalah yang mereka miliki bahwa mereka beroperasi pada suhu di atas celah energi.
Peter Shor
5
@vzn bisa atau tidak? dugaan atau prediksi? bisakah Anda memutuskan tentang kata-kata yang akan digunakan?
Sasho Nikolov
5
@vzn: jika Anda berpikir bahwa Feynman tidak akan menganggapnya perlu / berguna / baik untuk melakukan simulasi, maka Anda tidak benar-benar mengerti Richard Feynman. Jangan salah mengartikan perbedaan sikap di pihaknya terhadap apa yang dimaksud dengan "pengetahuan", dengan kemalasan intelektual dan kegemaran membangun kastil di langit. Dia adalah pendekatan yang ingin tahu dan banyak menuntut ilmu yang harus ditiru; jika dia tidak terlalu mementingkan dirinya sendiri dengan bukti matematika khususnya, itu hanya menunjukkan bahwa dia bukan seorang ahli matematika. (Namun, apakah Anda menjawab pertanyaan sebagai ahli matematika!)
Niel de Beaudrap

Jawaban:

23

Ini adalah pertanyaan yang agak sulit untuk dibongkar jika Anda tidak terbiasa dengan kompleksitas komputasi. Seperti sebagian besar bidang kompleksitas komputasi, hasil utama diyakini secara luas tetapi bersifat dugaan.

Kelas kompleksitas yang biasanya dikaitkan dengan komputasi klasik yang efisien adalah (untuk algoritma deterministik) dan B P P (untuk acak). Counterpart kuantum kelas-kelas ini adalah B Q P . Ketiga kelas adalah himpunan bagian dari P S P A C E (kelas yang sangat kuat). Namun, metode kami saat ini bukti tidak cukup kuat untuk definitif menunjukkan bahwa P tidak sama dengan P S P A C E . Jadi, kita tidak tahu bagaimana memisahkan P dari B Q P secara formalPBPPBQPPSPACEPPSPACEPBQP keduanya - karena , memisahkan dua kelas lebih sulit daripada tugas sudah tangguh memisahkan P dari P S P A C E . (Jika kita bisa membuktikan P B Q P , kita akan segera mendapatkan bukti bahwa P P S P A C E , jadi buktikan P B Q PPBQPPSPACEPPSPACEPBQPPPSPACEPBQPharus setidaknya sekeras masalah yang sudah sangat sulit untuk membuktikan ). Untuk alasan ini, dalam keadaan terkini, sulit untuk mendapatkan bukti matematis yang menunjukkan bahwa komputasi kuantum akan lebih cepat daripada komputasi klasik.PPSPACE

Dengan demikian, kami biasanya mengandalkan bukti tidak langsung untuk pemisahan kelas kompleksitas. Kami terkuat dan paling terkenal bukti algoritma Shor yang memungkinkan kita untuk faktor dalam . Sebaliknya, kami tidak tahu algoritma apa pun yang dapat menyebabkan B P P - dan kebanyakan orang percaya bahwa tidak ada; itu adalah bagian dari alasan mengapa kami menggunakan RSA untuk enkripsi, misalnya. Secara kasar, ini menyiratkan bahwa adalah mungkin bagi komputer kuantum untuk memperhitungkan secara efisien, tetapi menyarankan bahwa mungkin bagi komputer klasik tidak dapat memperhitungkan secara efisien. Untuk alasan ini, hasil Shor telah menyarankan kepada banyak orang bahwa B Q P benar-benar lebih kuat daripada B P PBQPBPPBQPBPP(dan karenanya juga lebih kuat dari ).P

Saya tidak tahu ada argumen serius bahwa , kecuali dari orang-orang yang percaya pada kompleksitas kelas yang jauh lebih besar runtuh (yang merupakan minoritas komunitas). Argumen yang paling serius saya dengar terhadap kuantum komputasi datang dari sikap lebih dekat dengan fisika dan berpendapat bahwa B Q P tidak benar menangkap sifat kuantum komputasi. Argumen ini biasanya mengatakan bahwa negara-negara yang koheren makroskopik tidak mungkin untuk mempertahankan dan kontrol (misalnya, karena ada beberapa yang belum diketahui hambatan fisik fundamental), dan dengan demikian operator yang B Q PBQP=PBQPBQP bergantung pada tidak dapat direalisasikan (bahkan pada prinsipnya) di dunia kita .

Jika kita mulai beralih ke model komputasi lain, maka model yang paling mudah untuk dikerjakan adalah kompleksitas kueri kuantum (versi klasik yang sesuai dengannya adalah kompleksitas pohon keputusan). Dalam model ini, untuk fungsi total kami dapat membuktikan bahwa (untuk beberapa masalah) algoritma kuantum dapat mencapai peningkatan kuadrat, meskipun kami juga dapat menunjukkan bahwa untuk fungsi total kami tidak dapat melakukan lebih baik daripada kecepatan power-6 dan percaya bahwa kuadrat adalah terbaik. Untuk fungsi parsial, ini adalah cerita yang sama sekali berbeda, dan kami dapat membuktikan bahwa percepatan eksponensial dapat dicapai. Sekali lagi, argumen ini bergantung pada keyakinan bahwa kita memiliki pemahaman yang layak tentang mekanika kuantum dan tidak ada beberapa penghalang teoretis yang tidak diketahui secara ajaib untuk menghentikan keadaan kuantum makroskopik agar tidak dikendalikan.

Artem Kaznatcheev
sumber
jawaban yang bagus, bagaimana dan B Q P terkait, saya berasumsi (dari jawaban) bahwa B P P B Q P , belum terikat atau dugaan untuk ini? BPPBQPBPPBQP
Nikos M.
1
"karena ada beberapa penghalang fisik mendasar yang belum diketahui ..." sebenarnya ada banyak kendala fisik yang diketahui didokumentasikan secara berlebihan oleh para eksperimentalis, apakah mereka atau orang lain yang tidak diketahui adalah penghalang jalan yang serius adalah pertanyaan terbuka ....
vzn
4
@ Nikos: adalah penahanan kelas yang terbukti secara sederhana. Untuk sketsa: kita dapat mencirikan B P P oleh deterministik (dan reversibel) perhitungan yang bekerja pada input, beberapa bit kerja disiapkan sebagai 0s, dan beberapa bit acak yang baik 0 atau 1 seragam secara acak. Dalam perhitungan kuantum, mempersiapkan bit acak dapat disimulasikan oleh transformasi kesatuan tunggal-bit yang sesuai (meskipun kami menyebutnya 'qubit' ketika kami mengizinkan transformasi tersebut). Dengan demikian kita dapat dengan mudah menunjukkan bahwa B P P B Q P , meskipun kita tidak tahu apakah penahanan ini ketat. BPPBQPBPPBPPBQP
Niel de Beaudrap
@NieldeBeaudrap, terima kasih, mengapa mereka tidak setara? artinya ? saya kehilangan sth di sini, bukankah (juga?) B P P kelas untuk semua perhitungan acak? BQPBPPBPP
Nikos M.
1
@ Nikos: tidak, bukan kelas untuk semua perhitungan acak. Ini memiliki definisi matematika tertentu yang mendikte apa masalah itu berisi, dan tidak diketahui mengandung B Q P atau sesuatu seperti itu. Sebagai contoh lain, P P juga merupakan kelas acak (di mana jawabannya hanya harus benar dengan probabilitas> 1/2, meskipun tidak dengan margin yang signifikan) yang berisi P B P P B Q P P P dan N P P P , di mana semua konten diharapkan ketat.BPPBQPPPPBPPBQPPPNPPP
Niel de Beaudrap
7

Untuk kompleksitas komputasi, tidak ada bukti bahwa komputer kuantum lebih baik daripada komputer klasik karena betapa sulitnya untuk mendapatkan batas bawah pada kekerasan masalah. Namun, ada pengaturan di mana komputer kuantum terbukti lebih baik daripada yang klasik. Yang paling terkenal dari contoh-contoh ini adalah dalam model blackbox di mana Anda memiliki akses melalui blackbox ke fungsi dan Anda ingin menemukan x unik di mana f mengevaluasi ke 1. Ukuran kompleksitas dalam hal ini adalah jumlah panggilan ke ff:{0,1}n{0,1}xffxΩ(2n)fO(2n)

For further provable separations, you can look into communication complexity where we know how to prove lower bounds. There are tasks that two quantum computers communicating through a quantum channel can accomplish with less communication than two classical computers. For example computing the inner product of two strings, one of the hardest problems in communication complexity, has a speedup when using quantum computers.

Philippe Lamontagne
sumber
4

Artem Kaznatcheev provides an outstanding summary of some key reasons why we expect quantum computers will be fundamentally faster than classical computers, for some tasks.

If you'd like some additional reading, you can read Scott Aaronson's lecture notes on quantum computing, which discuss the Shor algorithm and other algorithms that admit efficient quantum algorithms but do not seem to admit any efficient classical algorithm.

There is a debate about whether quantum computers can be built in practice: is BQP an accurate model of reality, or is there something that might prevent us from building a quantum computer, either for engineering reasons or because of fundamental physical barriers? You can read Scott Aaronson's lecture notes summarizing the arguments others have raised and also read his blog post with his view on that debate, but we probably won't have a definitive answer until someone actually builds a quantum computer that can do non-trivial tasks (such as factor large numbers).

D.W.
sumber
"but we probably won't have a definitive answer until someone actually builds a quantum computer that can do non-trivial tasks (such as factor large numbers)." this is something of wishful thinking (that permeates the field) bordering on a non sequitur wrt prior sentence, "the debate about whether QM computers can be built in practice, or there are barriers etc". it is possible that scalable QM computers may not be physically realizable and no theoretical or experimental proof will be available, only reports of formidable obstacles (ie nearly the current status of the experimental field).
vzn
-2

The basic edifice of quantum computing is the Unitary transform, this is the primary tool for having speedup in many algortithms in the literature. Algorithms that use Unitaries use number/graph theoretic properties of problems at hand - period finding, speed ups in quantum walks, etc. Speedups in natural problems are still elusive - as pointed out. Whether factoring large numbers is the end in itself for quantum computing, is still an open question. Other open questions such QNC, its seperation from NC could still provide elusive clues about what quantum computers may do. But, if the goal of quantum computer is to factor large numbers - it may yet be feasible, in itself in some future, with scary implications (of course to personal privacy)! Whether the unitary binds the model of computation in some way or a new paradigm of physical reality is needed - is anybodies guess.

user3046538
sumber
1
actually the speedup (e.g in Shor's algorithm) is based on the superposition principle of QM (which is slightly related to unitarity)
Nikos M.
The "superposition principle" is mathematically equivalent to the statement that quantum distributions transform linearly. Probability vectors also transform linearly. More than "the superposition principle" would be required to explain any quantum / classical separation.
Niel de Beaudrap
Incidentally: while I personally agree that unitarity (as opposed to, say, stochasticity) plays an important role in quantum computation, it is not clear that one can say that it is "the basic edifice" of the subject. Measurement-Based Quantum Computing and Adiabatic Quantum Computing as examples of models of QC where unitarity is put very much in the back seat, and where one would require a non-trivial argument to somehow squeeze unitarity back out, except inasmuch as we have tilted the playing field by describing "universal QC" in terms of the unitary circuit model.
Niel de Beaudrap
@NieldeBeaudrap, indeed superposition stems from linearity. personally dont count on unitarity so much (but we'll see)
Nikos M.
1
@Nikos: indeed, you can get much more (suspected) power if you consider arbitrary invertible linear operations. I'm just pointing out that superstitions/linearity in itself isn't powerful, because stochastic transformations are also linear, and also act on superpositions — but many researchers suspect BPP=P despite this.
Niel de Beaudrap
-2

I wanted to respond to the comments of Niel de Beaudrap regarding the source for quantum speedups, but I can't comment. I don't know if I can post an answer.

In my view, all quantum speedups are due to entanglement. The only algorithm where we can do something faster than classical computers without using entangled states is Deutsch-Jozsa for computing the parity of two bits. If we discuss about asymptotic speed-ups, entanglement is necessary, and in fact a lot of it. If a quantum algorithm needs a small amount of entanglement, it can be simulated efficiently classically. I can point out the paper http://arxiv.org/abs/quant-ph/0201143, which discusses specifically the factoring algorithm and how much entanglement it requires.

costelus
sumber
2
"In my view, all quantum speedups are due to entanglement." Your claim is really open to debate. The role of entanglement in quantum algorithms is not fully well-understood. We know that entanglement is not a sufficient resource to achieve an exponential quantum speed-up (there are maximally entangling quantum circuits, called Clifford circuits, that are classically simulable), showing that these are not equivalent concepts.
Juan Bermejo Vega
2
Also, you might want to look at this paper, which shows that little entanglement is enough to do universal quantum computation (for continuous measures of entanglement).
Juan Bermejo Vega
I just wanted to say that most interesting quantum algorithms use entanglement. How much it depends on the entanglement measure, and there are papers which argue that too much entanglement is useless. And, yes, entanglement by itself is not enough.
costelus
-4

this is nearly the same core question that is driving something like hundreds of millions, or possibly billions of dollars of QM computing research initiatives both public and private worldwide. the question is being attacked at the same time both experimentally and theoretically and advances on each side carry over to the other side.

the question does attempt to neatly separate the theoretical and pragmatic/ experimental aspects of this question, but an experimentalist or engineer would argue they are tightly coupled, inseparable, and that historical progress so far on the challenge is evidence/ proof of that.

the following point is certainly not going to win any popularity contests (possibly due somewhat to the well-known/ observed bias that negative results are rarely reported scientifically), but it is worth noting that there is a minority/contrarian opinion promoted by various credible, even elite researchers that QM computing may or will never materialize physically due to insurmountable implementation challenges, and there is even some theoretical justification/analysis for this (but maybe more from theoretical physics than TCS). (and note that some may have doubts but are not willing to go on record questioning the "dominant paradigm".) the main arguments are based on inherent QM noisiness, the Heisenberg uncertainty principle, and the fundamental experimental messiness of QM setups, etc.

there are now a fairly solid 2 decades of both theoretical and experimental research and the minority faction would argue that the results so far are not encouraging, lackluster, or are even now verging on a definitive negative answer.

one of the most outspoken proponents of the negative view (bordering on extreme/ scathing!) is Dyakonov but who nevertheless argues the case passionately based on all the angles:

one may accuse Dyakonov of near polemicism but it serves as a nearly symmetric counterpoint to some QM computing proponents who have a fervent belief in the opposing position (that there is nearly absolutely no question of its future/eventual/inevitable viability). another major theoretician arguing for inherent limitations in QM computing (based on noise) is Kalai. here is an extended debate between him and Harrow on the subject.

it is also natural to draw some at least loose analogy to another massive/complex physics project that so far has not achieved its ultimate goal after decades of attempts and optimistic early predictions, that of energy-generating fusion experiments.

vzn
sumber
4
This doesn't answer the question as asked.
D.W.
in short, the implicit premise that its purely a theoretical question is pushing the limits of applicability of theory vs reality to the point of being flawed... ie theres a modelling issue at the heart of it... do existing formalisms (crossing both TCS and physics!) actually/accurately capture the reality? Dyakonov for one might answer no... and new formalisms are actively being proposed by the minority faction...
vzn
2
@vzn: with it understood that this could never yield a formal proof one way or the other, could you at least elaborate on how the theoretical component of the "fairly solid 2 decades of both theoretical and experimental research" is pointing towards results which are "not encouraging, lackluster, or are even now verging on a definitive negative answer" as respects the feasibility of quantum computing?
Niel de Beaudrap
3
In view of Dyanokov's Axiom about precision and exact values, it's not clear that it is I who is delving into the philosophical! Dyanokov seems to be either a hardcore antirealist, a skeptic of quantum mechanics, or both. And it's unclear how those arguments re: precision address bounded-error quantum computation, where the threshold theorem also applies to bounded-precision quantum computation. In short, he doesn't seem up to date on the state of the art of quantum computing, from about 1997 onwards. Don't see much need for real-time interaction, to address skepticism that's not up to date.
Niel de Beaudrap
1
Going from his abstract and a brief perusal of his paper, Dyakonov's argument seems to be: since the assumptions used in the proof of the fault-tolerance theorem fail are not satisfied the real world, there is no guarantee that quantum computing will actually work. If we used this criterion in general, almost no theoretical results would ever be applicable in practice.
Peter Shor