Adakah perkiraan tentang seberapa rumit skala teknik kuantum dengan ukuran?

12

Tampak bagi saya bahwa pertanyaan yang sangat relevan untuk prospek komputasi kuantum adalah bagaimana kompleksitas teknik sistem kuantum berskala dengan ukuran. Artinya, lebih mudah untuk membangun 1 -qubit komputer daripada satu komputer n -qubit. Dalam pikiran saya, ini secara kasar analog dengan fakta bahwa lebih mudah untuk analitis memecahkan n 1 masalah -body dari satu n -body masalah, karena belitan adalah faktor motivasi utama di balik kuantum komputasi di tempat pertama.n 1nn 1n

Pertanyaan saya adalah sebagai berikut: Tampaknya kita harus benar-benar peduli tentang bagaimana 'kesulitan' membangun dan mengendalikan suatu sistem kuantum tumbuh bersama n . Perbaiki arsitektur gerbang, atau bahkan sebuah algoritma - apakah ada kesulitan pada prinsipnya yang muncul dari fakta bahwa komputer n -qubit adalah masalah banyak-tubuh kuantum? Dan secara matematis, pemahaman kita tentang bagaimana fenomena kuantum berkembang menjadi fenomena klasik cukup buruk? Di sini kesulitan dapat didefinisikan dalam beberapa cara, dan pertanyaan yang akan kita pedulikan, secara kasar adalah, mengendalikan mesin 1000- qubit (yaitu, menjaga koherensi fungsi gelombangnya) 'hanya' 100 x lebih sulit daripada mengendalikan suatunnn1000100Mesin 10- qubit, atau 100 2 , atau 100 ! atau 100 100 ? Apakah kita punya alasan untuk meyakini bahwa itu lebih atau kurang adalah yang pertama, dan bukan yang terakhir?101002100!100100

Keith Rush
sumber
Ha, tidak tahu apa yang harus dan mengarah ke ...
Keith Rush
Hai @KeithRush tidak ada juga sesuatu yang hilang di kalimat pertama? Pertanyaan yang bagus.
MEE - Pasang kembali Monica
Sama sekali tidak digandakan, tetapi saya merasa bahwa jawaban untuk dua pertanyaan sangat terhubung: quantumcomputing.stackexchange.com/questions/1803/…
agaitaarino

Jawaban:

8

Ini adalah pertanyaan yang telah saya pikirkan selama lebih dari 10 tahun. Pada 2008 saya adalah seorang mahasiswa, dan saya memberi tahu profesor komputasi kuantum saya bahwa saya ingin mempelajari "kompleksitas fisik" dalam melakukan algoritma kuantum yang "kompleksitas komputasinya" diketahui mendapat manfaat dari perhitungan kuantum.

Misalnya pencarian Grover membutuhkan gerbang kuantum sebagai lawanO(n)gerbang klasik, tetapi bagaimana jika biaya untuk mengendalikan gerbang kuantum sebagain4sedangkan untuk gerbang klasik hanyan?O(n)O(n)n4n

Dia langsung menjawab:

"Tentunya ide Anda tentang kompleksitas fisik akan tergantung pada implementasi"

Ternyata itu benar. "Kompleksitas fisik" dari memanipulasi qubit dengan NMR jauh lebih buruk daripada untuk qubit superkonduktor, tetapi kami tidak memiliki formula untuk kesulitan fisik sehubungan dengan n untuk kedua kasus.nn

Ini adalah langkah-langkah yang perlu Anda ambil:

1. Munculkan model dekoherensi yang akurat untuk komputer kuantum Anda. Ini akan berbeda untuk spin qubit di titik kuantum GaAs, vs spin qubit di pusat NV berlian, misalnya.
2. Secara akurat menghitung dinamika qubit dengan adanya dekoherensi.
3. Plot vs n , di mana F adalah kesetiaan dari n decohered qubit dibandingkan dengan hasil yang akan Anda dapatkan tanpa decoherence. 4. Ini dapat memberi Anda indikasi tingkat kesalahan (tetapi algoritma yang berbeda akan memiliki persyaratan kesetiaan yang berbeda). 5.FnFn

Pilih kode koreksi kesalahan. Ini akan memberitahu Anda berapa banyak qubit fisik yang Anda butuhkan untuk setiap qubit logis, untuk tingkat kesalahan . 6. Sekarang Anda dapat merencanakan biaya (dalam hal jumlah qubit tambahan yang diperlukan) untuk "merekayasa" komputer kuantum.E

Sekarang Anda dapat melihat mengapa Anda harus datang ke sini untuk mengajukan pertanyaan dan jawabannya tidak ada di buku teks mana pun:

Langkah 1 tergantung pada jenis implementasi (NMR, Photonics, SQUIDS, dll.)
Langkah 2 sangat sulit. Dinamika Decoherence-free telah disimulasikan tanpa perkiraan fisik untuk 64 qubit , tetapi non-Markovian, dinamika non-perturbatif dengan decoherence saat ini terbatas pada 16 qubit .
Langkah 4 tergantung pada algoritma. Jadi tidak ada "skala universal" kompleksitas fisik, bahkan jika bekerja dengan jenis implementasi tertentu (seperti NMR, Photonics, SQUIDs, dll.)
Langkah 5 tergantung pada pilihan kode koreksi kesalahan

Jadi, untuk menjawab dua pertanyaan Anda secara khusus:

100101002100!100100

Itu tergantung pada pilihan Anda di Langkah 1 , dan belum ada yang bisa melewati Langkah 1 hingga Langkah 3 untuk mendapatkan formula yang tepat untuk kompleksitas fisik sehubungan dengan jumlah qubit, bahkan untuk algoritma tertentu. Jadi ini masih merupakan pertanyaan terbuka, dibatasi oleh kesulitan mensimulasikan dinamika sistem kuantum terbuka.

Apakah kita punya alasan untuk meyakini bahwa itu lebih atau kurang adalah yang pertama, dan bukan yang terakhir?

n!n100n

pengguna1271772
sumber
1
nρ(C2)nnρn
1
Apa yang Anda maksud dengan "dinamika sangat kecil"? Bidang vektor ditentukan oleh dinamika yang dievaluasi pada titik mana? Hitung norma apa (menggunakan bidang tensor metrik Fisher)? Maksud Anda menghitung norma bidang vektor? Tampaknya menjadi ide yang bagus, tetapi jika itu yang saya pikir maksud Anda, yaitu untuk melihat dekoherensi untuk waktu yang sangat kecil pada t = 0, saya tidak tahu betapa berharganya ini sebagai metrik, karena dibutuhkan waktu untuk dekoherensi mencapai kekuatan penuhnya, karena kekuatan dekoherensi dicirikan oleh fungsi respons bath, yang merupakan integral dari t.
user1271772
1
(Mn,g)nMnρTρMnr(ρ). Jika Anda ingin unggul atas semua status yang mungkin, lakukan pendakian gradien. Ini memberikan batas yang sangat kasar dari laju dekoherensi yang diberikan bidang vektor yang mendefinisikan dinamika. Ini dapat digunakan untuk membatasi dekoherensi bahkan pada waktu yang lebih besar karena laju itu terikat.
AHusain
4

Kompleksitas Sirkuit

Saya pikir masalah pertama adalah untuk benar-benar memahami apa yang dimaksud dengan 'mengendalikan' sistem kuantum. Untuk ini, mungkin membantu untuk mulai berpikir tentang kasus klasik.

n2n222n2n/nk2n

nϵO(n2), kemudian mengendalikan secara tepat mesin 1000-qubit agak 10.000 kali lebih sulit daripada mengendalikan mesin 10-qubit, dalam arti bahwa Anda perlu melindunginya dari dekoherensi selama itu lebih lama, mengimplementasikan lebih banyak gerbang dll.

Decoherence

Menindaklanjuti komentar,

Mari kita pertimbangkan algoritma tertentu atau jenis sirkuit tertentu. Pertanyaan saya dapat disajikan kembali - apakah ada indikasi, teoritis atau praktis, tentang bagaimana masalah (rekayasa) mencegah skala decoherence ketika kita skala jumlah sirkuit ini?

Ini terbagi menjadi dua rezim. Untuk perangkat kuantum skala kecil, sebelum koreksi kesalahan, Anda mungkin mengatakan kami dalam rezim NISQ . Jawaban ini mungkin paling relevan dengan rezim itu. Namun, saat perangkat Anda menjadi lebih besar, akan ada pengembalian yang berkurang; semakin sulit untuk menyelesaikan tugas rekayasa hanya dengan menambahkan beberapa qubit lagi.

pppp1%O(logϵ)ϵO(logϵ)faktor skala. Untuk angka-angka tertentu, Anda mungkin tertarik pada jenis perhitungan yang telah dilakukan Andrew Steane: lihat di sini (meskipun jumlahnya mungkin bisa sedikit ditingkatkan sekarang).

Apa yang benar-benar cukup menarik adalah untuk melihat bagaimana koefisien dalam hubungan ini berubah saat gerbang kesalahan Anda semakin dekat dan lebih dekat ke ambang koreksi kesalahan. Sepertinya saya tidak bisa meletakkan tangan saya pada perhitungan yang sesuai (saya yakin Andrew Steane melakukan satu di beberapa titik. Mungkin itu adalah pembicaraan saya pergi ke.), Tetapi mereka meledak sangat buruk, sehingga Anda ingin beroperasi dengan margin yang layak di bawah ambang batas.

Yang mengatakan, ada beberapa asumsi yang harus dibuat tentang arsitektur Anda sebelum pertimbangan ini relevan. Misalnya, harus ada paralelisme yang cukup; Anda harus dapat bertindak di berbagai bagian komputer secara bersamaan. Jika Anda hanya melakukan satu hal pada satu waktu, kesalahan akan selalu menumpuk terlalu cepat. Anda juga ingin dapat meningkatkan proses produksi Anda tanpa ada yang semakin buruk. Tampaknya, misalnya, qubit superkonduktor akan cukup baik untuk ini. Kinerja mereka terutama tergantung pada seberapa akurat Anda dapat membuat berbagai bagian sirkuit. Anda melakukannya dengan benar untuk satu, dan Anda dapat "hanya" mengulangi berkali-kali untuk membuat banyak qubit.

DaftWullie
sumber
1
Ini pada dasarnya apa yang saya maksudkan, tetapi menghilangkan kompleksitas algoritmik, dan berfokus pada kompleksitas teknik - terutama mencegah dekoherensi. Mari kita pertimbangkan algoritma tertentu atau jenis sirkuit tertentu. Pertanyaan saya dapat disajikan kembali - apakah ada indikasi, teoritis atau praktis, tentang bagaimana masalah (rekayasa) mencegah skala decoherence ketika kita skala jumlah sirkuit ini?
Keith Rush
@KeithRush OK! Sekarang saya mulai memahami apa yang Anda cari :) pada dasarnya, ini adalah kompleksitas komputasi toleransi kesalahan - berapa banyak waktu dan biaya overhead untuk mendapatkan sejumlah qubit logis berkualitas tinggi - dan merupakan sesuatu yang telah dikerjakan orang cukup hati-hati. Saya akan mencoba menggali informasi yang relevan besok, kecuali ada orang yang mengalahkan saya.
DaftWullie
2

mn

Jadi dalam arti tertentu, "kesetiaan" bisa memberikan perkiraan, seberapa rawan kesalahan prosesor tersebut. Jika Anda menggunakan komputer kuantum untuk menghitung dinamika reaksi kimia, atau masalah lainnya, yang dapat menggunakan superposisi untuk mencapai percepatan kuantum (atau bahkan "supremasi kuantum" pada akhirnya), Anda dapat dipengaruhi oleh dekoherensi, atau bahkan seberapa cepat Anda mencapai superposisi , dapat berperan dalam operasi bebas kesalahan. "Fidelity" dapat memberikan estimasi kesalahan, apakah kami menggunakan 1 qubit, atau mengatakan 200 qubit. Anda bahkan bisa "merekayasa" seorang Hamilton, untuk memberikan qubit kesetiaan yang tinggi, dalam kasus adiabatik, di mana kesalahan kebocoran terjadi.

Perhatikan bahwa dalam praktiknya, tingkat kesalahan 99,5% + sangat diinginkan, untuk memfasilitasi koreksi kesalahan yang efisien. Tingkat kesalahan bisa dari jenis pembacaan elektron berputar antara qubit ke akurasi. Dalam kasus seperti itu, tingkat kesalahan, dari 99,5%, atau 99,8% (kepercayaan tipe lima atau enam sigma) akan membutuhkan lebih sedikit overhead (koreksi kesalahan) ketika melakukan penskalaan sistem.

pengguna3483902
sumber