Dorongan di balik transisi abad ke-20 dari sirkuit analog ke digital didorong oleh keinginan untuk akurasi yang lebih besar dan kebisingan yang lebih rendah. Sekarang kami sedang mengembangkan perangkat lunak di mana hasil perkiraan dan kebisingan memiliki nilai positif.
- Dalam jaringan buatan, kami menggunakan gradien (Jacobian) atau model tingkat kedua (Hessian) untuk memperkirakan langkah selanjutnya dalam algoritma konvergen dan menentukan tingkat ketidakakuratan dan keraguan yang dapat diterima. 1
- Dalam strategi konvergensi, kami sengaja menambahkan noise dengan menyuntikkan gangguan acak atau pseudo acak untuk meningkatkan keandalan dengan melompati minima lokal pada permukaan optimisasi selama konvergensi. 2
Apa yang kami terima dan sengaja perkenalkan dalam sistem AI saat ini adalah hal yang sama yang mendorong elektronik ke sirkuit digital.
Mengapa tidak kembali ke sirkuit analog untuk jaring saraf dan menerapkannya dengan matriks penguat operasional, bukan matriks elemen pemrosesan sinyal digital?
Nilai-nilai parameter pembelajaran jaringan buatan dapat dipertahankan dengan menggunakan kapasitor terintegrasi yang dibebankan melalui konverter D-ke-A sedemikian rupa sehingga negara yang dipelajari dapat memperoleh manfaat dari keakuratan dan kenyamanan digital, sementara propagasi ke depan mendapat manfaat dari keunggulan analog.
- Kecepatan lebih tinggi 3
- Pesanan transistor dengan magnitudo lebih sedikit mewakili sel jaringan
- Kebisingan termal alami 4
Artikel akademik atau pencarian paten untuk jaringan buatan analog mengungkapkan banyak pekerjaan selama empat puluh tahun terakhir, dan tren penelitian telah dipertahankan. Sirkuit analog komputasi dikembangkan dengan baik dan memberikan dasar untuk susunan saraf.
Dapatkah obsesi saat ini dengan komputasi digital mengaburkan pandangan umum tentang opsi arsitektur AI?
Apakah analog hybrid arsitektur unggul untuk jaringan buatan?
Catatan kaki
[1] Kerangka Pembelajaran PAC (mungkin kira-kira benar) mengaitkan kesalahan yang dapat diterima dan keraguan yang dapat diterima dengan ukuran sampel yang diperlukan untuk pembelajaran untuk jenis model tertentu. (Perhatikan bahwa mewakili keakuratan dan mewakili keyakinan dalam kerangka kerja ini.)
[2] Keturunan gradien stokastik diperlihatkan, ketika strategi dan parameter hiper yang tepat digunakan, untuk bertemu lebih cepat selama pembelajaran dan menjadi praktik terbaik dalam aplikasi jaringan buatan dunia nyata tipikal.
[3] Prosesor Intel Core i9-7960X berjalan pada kecepatan turbo 4,2 GHz sedangkan penyiaran satelit satelite standar adalah 41 GHz.
[4] Kebisingan termal dapat diperoleh pada silikon dengan memperkuat dan menyaring kebocoran elektron melintasi dioda zener bias balik pada titik longsorannya. Sumber fenomena kuantum adalah derau termal Johnson-Nyquist. Sanguinetti et. Al. negara dalam 'Generasi Nomor Acak Acak pada Ponsel' (2014), "Sebuah detektor dapat dimodelkan sebagai saluran lossy dengan probabilitas transmisi η diikuti oleh konverter foton-ke-elektron dengan efisiensi unit ... distribusi yang diukur akan menjadi kombinasi dari ketidakpastian kuantum dan kebisingan teknis, "dan ada karya JTWPA CalTech. Kedua hal ini dapat menjadi standar untuk menghasilkan kebisingan kuantum yang benar-benar tidak deterministik dalam sirkuit terintegrasi.
Referensi
- STDP Belajar Patch Gambar dengan Convolutional Spiking Neural Networks , Saunders et. Al. 2018, U Massa dan HAS
- Akselerasi Kode Tujuan Umum dengan Komputasi Analog Presisi Terbatas , Amant et. al., 2014
- Komputasi analog dan simulasi biologis mendapatkan dorongan dari kompiler MIT baru , oleh Devin Coldewey, 2016
- Pengembalian komputasi analog , oleh Larry Hardesty, 2016 *
- Mengapa Komputasi Analog? , Dokumen Tidak Diklasifikasikan NSA
- Kembali ke komputasi analog: Peneliti Columbia menggabungkan komputasi analog dan digital dalam satu chip , Columbia U, 2016
- Field-Programmable Crossbar Array (FPCA) untuk Komputasi yang Dapat Dikonfigurasi Ulang , Zidan et. al., IEEE, 2017
- Infrastruktur Komputasi Hibrid FPAA / Memristor , Laiho et. al., IEEE, 2015
- Yayasan dan Paradigma Muncul untuk Komputasi dalam Sel Hidup , Ma, Perli, Lu, Harvard U, 2016
- Model Fleksibel Bidang Transistor Programmable CMOS yang Ditargetkan untuk Evolusi Perangkat Keras (FPAA), oleh Zebulum, Stoica, Keymeulen, NASA / JPL, 2000
- Custom Linear Array Menggabungkan Hingga 48 Precision Op Amps Per Chip , Ashok Bindra, 2001, Desain Elektronik
- Array Analog Lapangan-Programmable Skala Besar untuk Pemrosesan Sinyal Analog , Hall et. al., Transaksi IEEE pada Sirkuit dan Sistem, vol. 52, tidak. 11, 2005
- Array analog lapangan-programmable skala besar untuk pemrosesan sinyal analog , Hall et. Al. 2005
- Susunan VLSI dari neuron penguat berdaya rendah dan sinapsis yang dapat dipertahankan dengan plastisitas dependen terhadap waktu lonjakan , Indiveri G, Chicca E, Douglas RJ, 2006
- https://www.amazon.com/Analog-Computing-Ulmann/dp/3486728970
- https://www.amazon.com/Neural-Networks-Analog-Computation-Theoretical/dp/0817639497
sumber
Jawaban:
Saya pikir, ada berbagai alasan. Pertama-tama: Fleksibilitas. Dengan CPU dan GPU modern Anda dapat membangun hampir setiap model AI yang Anda inginkan dan dalam setiap ukuran dan kompleksitas yang Anda inginkan. Bagaimana Anda bisa yakin bahwa model yang Anda gunakan saat ini masih cocok dalam beberapa tahun? Mungkin akan ada terobosan besar dalam NN dalam beberapa tahun ke depan? Mungkin beberapa ilmuwan menemukan bahwa ada cara yang lebih baik untuk mengembangkan AI dibandingkan dengan NNs, algoritma genetika dll. Chip normal dapat menangani semuanya, dan mereka dapat mengatasinya dengan cukup baik. Tetapi jika Anda ingin mengoptimalkannya dan tidak memiliki kekhawatiran tentang uang, Anda dapat mengembangkan arsitektur khusus (ini sudah dilakukan oleh perusahaan yang berbeda, yang memberikan dorongan kecepatan utama pada tugas-tugas tertentu).
Alasan nomor dua: Produksi massal. Maksud saya, perusahaan pada akhirnya dapat menghasilkan komponen AI analog yang sangat terintegrasi (katakanlah, misalnya chip NN). Tetapi itu akan menjadi investasi yang lebih besar. Agak tidak jelas apakah unit yang cukup fleksibel untuk menjadi alternatif perangkat keras AI yang serius, dapat dengan mudah diproduksi dalam produksi massal-nm yang dapat bersaing dengan CPU dan GPU. Terutama yang terakhir sangat dioptimalkan untuk melakukan perhitungan paralel masif. Dan, jika Anda menyaksikan pengembangan arsitektur yang mirip GPU (dapat melakukan beberapa hal, tetapi yang sangat baik) yang dioptimalkan secara aditif untuk pembelajaran maschine, Anda dapat melihat bahwa itu akan menjadi persaingan keras untuk unit analog.
Semua hal di atas tidak berarti bahwa tidak ada penelitian di bidang ini. Ada beberapa percobaan yang mencoba untuk mengarsipkan itu, tetapi mereka belum 'berbahaya' untuk arsitektur umum. Akhirnya, mereka akan datang di masa depan, ketika kita memahami AI dan kecerdasan secara umum lebih baik dan hanya mencoba untuk mengubah, tetapi saya agak skeptis tentang itu.
EDIT: Juga, sesuatu yang juga agak fleksibel: Anda dapat bereksperimen lebih baik dengan algoritma AI yang berjalan pada perangkat keras digital 'normal'. Misalnya, Anda dapat dengan mudah memeriksa NN di lokasi tertentu, Anda dapat dengan cepat mengubah data input atau memberikan yang alternatif, Anda benar-benar tidak terikat dengan apa pun. Dan karena kita masih belum tahu atau mengerti setiap model sepenuhnya, kapan harus menggunakannya, jika ada arsitektur yang lebih baik untuk tugas tertentu dll, tidak masuk akal untuk meletakkan sesuatu 'muda' dan 'eksperimental' dalam analog tetap Arsitektur.
sumber
Jawaban cepat
Ketika Intel mengakuisisi Nirvana, mereka menunjukkan keyakinan mereka bahwa VLSI analog memiliki tempatnya dalam chip neuromorfik dalam waktu dekat 1, 2, 3 .
Apakah itu karena kemampuan untuk lebih mudah mengeksploitasi kebisingan kuantum alami di sirkuit analog belum dipublikasikan. Ini lebih mungkin karena jumlah dan kompleksitas fungsi aktivasi paralel yang dapat dimasukkan ke dalam chip VLSI tunggal. Analog memiliki urutan keunggulan lebih besar dari digital dalam hal itu.
Tampaknya bermanfaat bagi anggota AI Stack Exchange untuk mempercepat evolusi teknologi yang sangat terindikasi ini.
Tren Penting dan Non-tren dalam AI
Untuk mendekati pertanyaan ini secara ilmiah, yang terbaik adalah membandingkan teori sinyal analog dan digital tanpa bias tren.
Penggemar kecerdasan buatan dapat menemukan banyak di web tentang pembelajaran mendalam, ekstraksi fitur, pengenalan gambar, dan perpustakaan perangkat lunak untuk mengunduh dan segera mulai bereksperimen. Ini adalah cara yang paling membuat mereka basah dengan teknologi, tetapi pengenalan jalur cepat ke AI juga memiliki sisi buruk.
Ketika dasar-dasar teoritis dari penyebaran awal yang sukses dari AI yang menghadapi konsumen tidak dipahami, asumsi membentuk konflik dengan dasar-dasar tersebut. Opsi penting, seperti neuron buatan analog, jaringan berduri, dan umpan balik waktu nyata, diabaikan. Peningkatan bentuk, kemampuan, dan keandalan dikompromikan.
Antusiasme dalam pengembangan teknologi harus selalu dilunakkan dengan setidaknya pemikiran rasional yang setara.
Konvergensi dan Stabilitas
Dalam sistem di mana akurasi dan stabilitas dicapai melalui umpan balik, nilai sinyal analog dan digital selalu merupakan perkiraan belaka.
Memahami paralel antara konvergensi melalui koreksi kesalahan dalam algoritma digital dan stabilitas yang dicapai melalui umpan balik dalam instrumentasi analog adalah penting dalam memikirkan pertanyaan ini. Ini adalah paralel menggunakan jargon kontemporer, dengan digital di sebelah kiri dan analog di sebelah kanan.
Popularitas Sirkuit Digital
Faktor utama meningkatnya popularitas sirkuit digital adalah penahanan kebisingan. Sirkuit digital VLSI saat ini memiliki waktu rata-rata yang lama untuk mengalami kegagalan (waktu rata-rata di antara instance ketika nilai bit salah ditemui).
Penghapusan kebisingan secara virtual memberi sirkuit digital keunggulan signifikan dibandingkan sirkuit analog untuk pengukuran, kontrol PID, perhitungan, dan aplikasi lainnya. Dengan sirkuit digital, seseorang dapat mengukur akurasi hingga lima digit desimal, kontrol dengan presisi luar biasa, dan menghitung π hingga seribu digit desimal akurasi, berulang dan andal.
Itu terutama aeronautika, pertahanan, balistik, dan anggaran penanggulangan yang meningkatkan permintaan manufaktur untuk mencapai skala ekonomi dalam pembuatan sirkuit digital. Permintaan resolusi layar dan kecepatan rendering mendorong penggunaan GPU sebagai prosesor sinyal digital sekarang.
Apakah sebagian besar kekuatan ekonomi ini menyebabkan pilihan desain terbaik? Apakah jaringan buatan berbasis digital adalah penggunaan terbaik real estat VLSI yang berharga? Itulah tantangan dari pertanyaan ini, dan ini pertanyaan yang bagus.
Realitas Kompleksitas IC
Seperti disebutkan dalam komentar, dibutuhkan puluhan ribu transistor untuk mengimplementasikan dalam silikon sebuah neuron jaringan buatan yang independen dan dapat digunakan kembali. Ini sebagian besar karena multiplikasi vektor-matriks yang mengarah ke setiap lapisan aktivasi. Hanya diperlukan beberapa lusin transistor per neuron buatan untuk mengimplementasikan perkalian vektor-matriks dan susunan lapisan dari penguat operasional. Amplifier operasional dapat dirancang untuk melakukan fungsi-fungsi seperti langkah biner, sigmoid, soft plus, ELU, dan ISRLU.
Sinyal Digital Kebisingan dari Pembulatan
Pensinyalan digital tidak bebas dari noise karena sebagian besar sinyal digital dibulatkan dan karenanya perkiraan. Kejenuhan sinyal dalam propagasi balik muncul pertama kali sebagai gangguan digital yang dihasilkan dari pendekatan ini. Saturasi lebih lanjut terjadi ketika sinyal selalu dibulatkan ke representasi biner yang sama.
Pemrogram terkadang menghadapi efek pembulatan dalam angka floating point IEEE presisi ganda atau tunggal ketika jawaban yang diharapkan 0,2 muncul sebagai 0,20000000000001. Seperlima tidak dapat direpresentasikan dengan akurasi sempurna sebagai angka biner karena 5 bukan merupakan faktor 2.
Science Over Hype Media dan Tren Populer
Dalam pembelajaran mesin seperti halnya banyak produk teknologi, ada empat metrik kualitas utama.
Terkadang, tetapi tidak selalu, pencapaian satu kompromi yang lain, dalam hal ini keseimbangan harus dicapai. Gradient descent adalah strategi konvergensi yang dapat diwujudkan dalam algoritme digital yang dengan baik menyeimbangkan keempatnya, itulah sebabnya itu adalah strategi dominan dalam pelatihan multi-layer perceptron dan di banyak jaringan dalam.
Keempat hal itu penting bagi pekerjaan cybernetics awal Norbert Wiener sebelum sirkuit digital pertama di Bell Labs atau flip flop pertama direalisasikan dengan tabung vakum. Istilah sibernetika berasal dari bahasa Yunani κυβερνήτης (dilafalkan kyvernítis ) yang berarti pengemudi, di mana kemudi dan layar harus mengkompensasi angin dan arus yang terus berubah dan kapal yang diperlukan untuk berkumpul di pelabuhan atau pelabuhan yang dimaksud.
Tren yang didorong oleh pertanyaan ini mungkin melingkupi gagasan apakah VLSI dapat dicapai untuk mencapai skala ekonomis untuk jaringan analog, tetapi kriteria yang diberikan oleh penulisnya adalah untuk menghindari pandangan yang didorong oleh tren. Bahkan jika itu tidak terjadi, seperti yang disebutkan di atas, transistor jauh lebih sedikit diperlukan untuk menghasilkan lapisan jaringan buatan dengan sirkuit analog daripada dengan digital. Untuk alasan itu, sah untuk menjawab pertanyaan dengan asumsi bahwa VLSI analog sangat layak dengan biaya yang masuk akal jika perhatian diarahkan untuk mencapainya.
Desain Jaringan Buatan Analog
Jaring buatan analog sedang diselidiki di seluruh dunia, termasuk usaha patungan IBM / MIT, Intel Nirvana, Google, Angkatan Udara AS pada awal 1992 5 , Tesla, dan banyak lainnya, beberapa diindikasikan dalam komentar dan tambahan ini. pertanyaan.
Ketertarikan pada analog untuk jaringan buatan berkaitan dengan jumlah fungsi aktivasi paralel yang terlibat dalam pembelajaran dapat ditampung dalam satu milimeter persegi dari real estate chip VLSI. Itu sangat tergantung pada berapa banyak transistor yang diperlukan. Matriks atenuasi (matriks parameter pembelajaran) 4 membutuhkan multiplikasi vektor-matriks, yang membutuhkan sejumlah besar transistor dan dengan demikian merupakan bagian penting dari real estat VLSI.
Harus ada lima komponen fungsional independen dalam jaringan perceptron multilayer dasar jika harus tersedia untuk pelatihan paralel penuh.
Dalam sirkuit analog, dengan paralelisme yang lebih besar yang melekat dalam metode transmisi sinyal, 2 dan 4 mungkin tidak diperlukan. Teori umpan balik dan analisis harmonik akan diterapkan pada desain sirkuit, menggunakan simulator seperti Spice.
Untuk nilai-nilai umum dari rangkaian ini dalam sirkuit terintegrasi analog saat ini, kami memiliki biaya untuk chip VLSI analog yang konvergen dari waktu ke waktu dengan nilai setidaknya tiga urutan besarnya di bawah chip digital dengan paralelisme pelatihan yang setara.
Langsung Mengatasi Injeksi Kebisingan
Pertanyaannya menyatakan, "Kami menggunakan gradien (Jacobian) atau model tingkat kedua (Hessian) untuk memperkirakan langkah selanjutnya dalam algoritma konvergen dan sengaja menambahkan noise [atau] menyuntikkan gangguan acak semu untuk meningkatkan keandalan konvergensi dengan melompati sumur lokal dalam kesalahan permukaan selama konvergensi. "
Alasan pseudo random noise disuntikkan ke dalam algoritma konvergensi selama pelatihan dan secara real time jaringan re-entrant (seperti jaringan penguatan) adalah karena keberadaan minima lokal di permukaan disparitas (kesalahan) yang bukan global minimum dari itu. permukaan. Minimum global adalah keadaan terlatih optimal dari jaringan buatan. Minima lokal mungkin jauh dari optimal.
Permukaan ini menggambarkan fungsi kesalahan dari parameter (dua dalam kasus 6 yang sangat disederhanakan ini ) dan masalah minimum lokal yang menyembunyikan keberadaan minimum global. Titik-titik rendah di permukaan mewakili minimum pada titik-titik kritis daerah lokal dari konvergensi pelatihan optimal. 7,8
Fungsi kesalahan hanyalah ukuran perbedaan antara status jaringan saat ini selama pelatihan dan status jaringan yang diinginkan. Selama pelatihan jaringan buatan, tujuannya adalah untuk menemukan minimum global perbedaan ini. Permukaan seperti itu ada apakah data sampel diberi label atau tidak berlabel dan apakah kriteria penyelesaian pelatihan adalah internal atau eksternal untuk jaringan buatan.
Jika laju pembelajaran kecil dan keadaan awal adalah pada asal ruang parameter, konvergensi, menggunakan gradient descent, akan menyatu dengan sumur paling kiri, yang merupakan minimum lokal, bukan minimum global di sebelah kanan.
Bahkan jika para ahli menginisialisasi jaringan buatan untuk belajar cukup pintar untuk memilih titik tengah antara dua minimum, gradien pada titik itu masih miring ke minimum tangan kiri, dan konvergensi akan tiba pada keadaan pelatihan yang tidak optimal. Jika optimalitas pelatihan sangat penting, yang sering terjadi, pelatihan akan gagal mencapai hasil kualitas produksi.
Salah satu solusi yang digunakan adalah menambahkan entropi ke proses konvergensi, yang seringkali hanya injeksi output yang dilemahkan dari generator bilangan acak semu. Solusi lain yang lebih jarang digunakan adalah melakukan percabangan proses pelatihan dan mencoba injeksi sejumlah besar entropi dalam proses konvergen kedua sehingga ada pencarian konservatif dan pencarian agak liar berjalan secara paralel.
Memang benar bahwa noise kuantum dalam sirkuit analog yang sangat kecil memiliki keseragaman yang lebih besar terhadap spektrum sinyal dari entropinya daripada generator pseudo-acak digital dan lebih sedikit transistor yang diperlukan untuk mencapai noise kualitas yang lebih tinggi. Apakah tantangan untuk melakukannya dalam implementasi VLSI telah diatasi belum diungkapkan oleh laboratorium penelitian yang tertanam dalam pemerintah dan perusahaan.
Ketiga tantangan itu masuk akal. Yang pasti dan juga sangat menarik adalah bagaimana perancang dan produsen memfasilitasi kontrol digital dari jalur sinyal analog dan fungsi aktivasi untuk mencapai pelatihan kecepatan tinggi.
Catatan kaki
[1] https://ieeexplore.ieee.org/abstract/document/8401400/
[2] https://spectrum.ieee.org/automaton/robotics/artificial-intelligence/analog-and-neuromorphic-chips-will-rule-robotic-age
[3] https://www.roboticstomorrow.com/article/2018/04/whats-the-difference-between-analog-and-neuromorphic-chips-in-robots/11820
[4] Atenuasi mengacu pada penggandaan output sinyal dari satu aktuasi dengan perameter yang dapat dilatih untuk memberikan tambahan untuk dijumlahkan dengan yang lain untuk input ke aktivasi lapisan berikutnya. Meskipun ini adalah istilah fisika, sering digunakan dalam teknik elektro dan itu adalah istilah yang tepat untuk menggambarkan fungsi perkalian vektor-matriks yang mencapai apa, dalam lingkaran yang kurang terdidik, disebut membobot input lapisan.
[5] http://www.dtic.mil/dtic/tr/fulltext/u2/a256621.pdf
[6] Ada lebih dari dua parameter dalam jaringan buatan, tetapi hanya dua yang digambarkan dalam ilustrasi ini karena plot hanya dapat dipahami dalam 3-D dan kami membutuhkan satu dari tiga dimensi untuk nilai fungsi kesalahan.
[7] Definisi permukaan:z= ( x - 2 )2+ ( y- 2 )2+ 60 - 401 + ( y- 1.1 )2+ ( x - 0,9 )2√- 40( 1 + ( ( y- 2.2 )2+ ( x - 3.1 )2)4)
[8] Perintah gnuplot terkait:
sumber
Instrumentasi Digital Sel Analog
Salah satu tantangan utama dalam jaringan buatan analog adalah bahwa instrumentasi jaringan akan paling praktis jika digital. Setiap implementasi VLSI dari perceptrons analog, konvolusi, atau jaringan spiking mungkin perlu memiliki komponen digital dalam pengaturan hibrida untuk beberapa fungsi.
Ini berarti bahwa realisasi jaringan pembelajaran analog buatan untuk keperluan umum akan membutuhkan konversi A-ke-D dan D-ke-A. 2 Tantangan desain VLSI kemudian menjadi menghindari penumpukan transistor dari pengenalan sejumlah besar blok konversi. Seperti akan mengalahkan keuntungan kepadatan realisasi analog propagasi maju dan mundur.
Solusi yang mungkin adalah menggunakan matriks pengunci untuk mendistribusikan sinyal dari konverter D-ke-A ke kapasitor dan matriks switching kebocoran rendah untuk memilih nilai mana yang akan dibaca oleh konverter A-ke-D. Ini harus dilakukan tanpa memasukkan gangguan digital ke jalur analog dan tanpa merendahkan biaya yang tersimpan atau kehilangan keakuratan pengisian daya.
Seberapa signifikan jumlah transistor tambahan dan rute dalam keluar dari rangkaian jaringan primer akan hanya dapat ditemukan dengan menggunakan proses desain VLSI.
Kontribusi Sumber Terbuka Penting
University of Massachusetts memperkenalkan open source BindsNet 3,4 pada Februari 2018. Ini mensimulasikan jaringan spiking analog dengan perangkat lunak dan perangkat keras digital dan memanfaatkan akselerasi GPU melalui PyTorch.
Ini memfasilitasi eksperimen saat ini ke dalam spiking desain jaringan dan strategi. Keberhasilan menggunakan simulasi, jika cukup signifikan, kemungkinan akan mengarah pada desain VLSI yang unggul.
Catatan kaki
[1] Dalam sistem pembelajaran praktis apa pun, parameter yang dipelajari harus diekstraksi dari implementasi VLSI, disimpan dalam database, dan tersedia untuk sejumlah pengembangan, pengujian, UAT, atau sistem produksi untuk penyebaran, analisis penyebab cacat, penskalaan, dan pemulihan bencana. Menyimpan dan memuat harus menjadi fitur dasar dari jaringan buatan analog hybrid VLSI, bahkan di antara zaman selama pelatihan dan selama penggunaan lapangan yang sebenarnya.
[2] Seseorang tidak dapat menahan keadaan terpelajar dari jaringan buatan dalam kapasitor tanpa batas waktu. Meskipun kapasitor telah menjadi komponen pasif yang dominan untuk rangkaian analog yang dirancang dalam proses CMOS standar, mereka tidak dapat memiliki banyak kapasitas dan kebocoran bukanlah nol. Waktu paruh dari sirkuit penyimpanan kapasitif dan keakuratan nilai parameter yang diperlukan akan menentukan laju siklus pembaruan ulang yang dibaca dan bersyarat.
[3] Repositori open source BindsNet
[4] BindsNET [paper]: Pustaka neural networks yang berorientasi pada pembelajaran mesin dengan Python untuk publikasi Harvard U dari abstrak dari makalah BindsNet.
sumber
Saya terkejut tidak ada yang menyebutkan beberapa arah penelitian khusus di bidang AI analog. Dan juga untuk memperjelas Kecerdasan Buatan tidak persis sama dengan Pembelajaran Mesin seperti jawaban ini disarankan . Kemajuan terbaru dalam perhitungan analog hanya di bidang Machine Learning.
CMOS analog:
Pertama mari kita bicara tentang implementasi analog neuron yang paling awal. Dr.Giacomo Indiveri, dkk telah menjadi beberapa perintis di bidang ini. Meskipun dengan logika CMOS Anda dapat mendesain sparing Neural Nets dengan STDP (Spike Time Dependent Plastisitas), sulit untuk menggunakan algoritma Machine Learning. Otak manusia belum sepenuhnya dipahami, terutama bagaimana ia mengomunikasikan informasi yang kompleks dengan paku. Jaringan berbasis lonjakan bagus dalam melakukan pengenalan gambar yang relatif kecil dan tugas dengan kompleksitas rendah (Sebagian besar makalah tampaknya lebih peduli tentang peningkatan kinerja daripada berlaku untuk tugas yang sangat kompleks). Karena banyaknya transistor yang tersedia, kami mungkin dapat memanfaatkannya dalam tugas-tugas kompleks.
Contoh terbaik adalah Google menggunakan ide presisi rendah di TPU dan kompensasi presisi, dengan menggunakan sejumlah besar unit pemrosesan yang menyebabkan semacam pertukaran antara waktu, presisi, dan area. Ini dapat dianalogikan dengan sejumlah besar transistor dalam prosesor walaupun dengan presisi rendah. ( Pandangan mendalam pada Tensor Processing Unit (TPU) pertama Google )
CATATAN: Beberapa orang mungkin berpendapat teknologi CMOS termasuk dalam domain digital, tetapi karena kami tidak secara khusus menggunakan CMOS di sini untuk melakukan operasi digital apa pun, saya suka menganggapnya sebagai analog.
Tugas berbasis lonjakan tampaknya cukup baik untuk jaringan Winner Take All (seperti Self Organizing Maps ), jadi itu adalah cara umum untuk mengimplementasikan Algoritma Pembelajaran Mesin dalam chip VLSI.
Jaringan berbasis lonjakan tidak memiliki memori yang ideal, Anda tidak dapat memiliki bobot presisi tinggi. Mereka telah mengusulkan untuk menerapkan bobot biologis atau sinapsis atau memori menggunakan kapasitor, tetapi tampaknya itu menghadapi masalah yang mirip dengan chip silikon normal, seperti kebocoran muatan dan juga dari non-idealitas berbasis silikon lainnya dan dari apa yang saya pahami, mereka juga dapat memodelkan bobot terbatas ( seperti -1, 0, 1).
Perhitungan Digital:
Di sinilah, datang perhitungan digital. Tugas-tugas yang membutuhkan jumlah representasi titik apung yang tinggi tidak dapat dengan mudah dilaksanakan oleh paku, karena kita belum mengetahui atau bahkan dapat sepenuhnya meniru aspek biofisik atau aspek neuron yang sebenarnya dalam hal ini. Komputasi digital hanya membantu dalam menyampaikan lebih banyak informasi juga dengan ketepatan sebanyak yang kita suka (jika kita mendesain CPU seperti itu). Meskipun kemacetan adalah kelemahan yang diketahui dari arsitektur Von Neumann untuk komputasi digital, itu tidak menjadi masalah seperti representasi informasi melalui paku. Paku selalu memiliki besaran tetap, satu-satunya cara ia mungkin menyampaikan informasi adalah dengan frekuensi dan tanda (rangsang atau penghambatan). Kecepatan clock juga cukup tinggi di komputer modern.
Memristors: Arah baru
Di sinilah penemuan terbaru, Memristor . Sejauh ini, ini merupakan perangkat analog yang paling menjanjikan dalam Pembelajaran Mesin. Memristor adalah konsep yang sangat baru yang diprediksi pada tahun 70-an dan diproduksi hanya pada tahun 2008. Pada dasarnya, mereka adalah RAM RRAM atau Resisitive. Dalam hal ini resistensi dari Memory Resistor atau Memristor secara langsung berkaitan dengan sejarah masa lalu saat ini yang sangat mirip dengan model biofisik neuron. Mereka juga dapat dilatih dengan mudah menggunakan array palang (pada dasarnya matriks kontak listrik) dari memristor (array palang akan mewakili matriks bobot, tegangan diterapkan sepanjang baris atau sepanjang kolom menentukan propagasi maju atau propagasi mundur).
Dengan demikian Memristor memberikan putaran analog nyata ke algoritma Machine Learning. Sayangnya, karena kedatangannya baru-baru ini ada banyak masalah yang belum diselesaikan.
Laboratorium Penelitian Nano-elektronik, Universitas Purdue
Bahan Elektrokimia, ETH Zurich
Proyek Otak Manusia
Institut MARCS untuk Otak, Perilaku dan Pengembangan
Photonics Neuromorfik:
Baru-baru ini, ada minat dalam bidang fotonics Neuromorphic. Berikut ini adalah artikel pendek tentang hal yang sama. Saya tidak terbiasa dengan cara kerja internal yang sama, tetapi AFAIK melibatkan transmisi informasi dalam bentuk optik dalam chip pemrosesan itu sendiri. Ini mengarah pada beberapa keunggulan dibandingkan sirkuit analog atau digital normal:
sumber
Saya percaya bahwa kebanyakan orang telah menjawab pertanyaan itu dengan sungguh-sungguh dengan cara yang sangat informatif. Saya hanya ingin mengatakan bahwa kami menggunakan sirkuit digital secara umum karena itulah teknologi yang ada dan bahwa sirkuit analog tampaknya sangat menjanjikan.
Namun, pada saat ini, ide ini tidak berkembang dengan baik meskipun jumlah penelitian yang dilakukan dalam beberapa tahun terakhir. Sejauh ini belum ada perusahaan yang mencoba menerapkan ide tersebut di tingkat komersial di mana mereka membuat chip tersebut untuk digunakan di luar laboratorium mereka.
Selain itu, ide ini terasa seperti pendekatan baru dan memiliki potensi besar.
Tetapi, dengan kurangnya pemahaman kita tentang bagaimana beberapa model bekerja, beberapa hanya tidak memiliki masalah; bagaimana jaringan saraf benar - benar menyelesaikan masalah yang begitu kompleks dan banyak hal lainnya. Oleh karena itu, masih merupakan teknologi yang cukup jauh untuk mencapai potensi penuhnya.
PS Saya masih pemula di bidang ini dan berpikir bahwa pendapat saya tidak masuk hitungan, jika saya berlebihan di mana saja atau gagal memberikan jawaban yang diharapkan saat itu, saya dengan tulus menyesalinya.
sumber
Seseorang juga dapat mendekati pertanyaan dari aspek teori informasi:
Ada dua trade / off untuk dipilih:
Informasi analog yang dapat mewakili informasi dengan cara yang lebih tepat / spesifik, tetapi terbatas jumlahnya.
Informasi digital yang tidak sepenuhnya mewakili dunia nyata, tetapi dapat berisi informasi dalam jumlah yang tidak terbatas dalam beberapa bit. Contoh yang baik bisa berupa penambahan untuk loop:
Yang mana yang lebih kuat?
sumber
Hava Siegelmann
Pada tampilan pertama, komputasi analog lebih unggul daripada yang digital. Komputer kuantum lebih cepat daripada komputer Von-Neumann dan chip neuromorfik membutuhkan lebih sedikit energi daripada CPU Intel. Dari sudut pandang teori, banyak yang berbicara untuk komputer analog. Hava Siegelmann telah meneliti kemampuan Super-turing dari jaringan saraf, yang berarti bahwa komputer analog dapat meniru yang digital tetapi tidak sebaliknya. Jadi mengapa kita tidak menggunakan komputasi analog?
Stephen Wolfram
Alasannya ada hubungannya dengan sistem pendidikan. Matematika klasik yang diajarkan di sekolah adalah matematika analog. Ini didasarkan pada aturan slide, tabel logaritma dan pemikiran di sirkuit. Sebaliknya, berpikir dalam nilai-nilai diskrit dari suatu algoritma dan menggambarkan dunia dalam nol dan yang mendasar berbeda dan membawa kita ke jenis matematika baru. Stephen Wolfram telah menjelaskan, bahwa pemahaman tentang otomat seluler adalah langkah penting untuk menggambarkan alam semesta dan dia benar. Mengabaikan matematika analog dan lebih memilih bahasa komputer yang mampu adalah metode yang kuat dalam pendidikan. Membantu tidak hanya mengenal komputer tetapi juga semua hal lain seperti kedokteran, literatur, dan ekonomi. Sekalipun mesin analog lebih unggul secara teknis, kami lebih suka mesin Turing yang lambat tapi terpisah,
Mengajar matematika
Untuk memahami perbedaan antara komputasi digital dan analog, kita harus fokus pada matematika itu sendiri yang digunakan di sekolah. Jika idenya adalah untuk mendorong komputasi analog ke depan, jenis matematika yang sesuai dikelompokkan di sekitar bidang listrik, integrasi dan diferensiasi. Di sekolah ini diajarkan di bawah istilah payung "Analisis Matematika". Topik ini sangat penting di masa lalu, karena analisis membantu membangun jembatan, mesin, dan mobil. Dalam semua domain ini aljabar vektor untuk menggambarkan ruang geometrik digunakan.
Jika perhitungan analog begitu kuat, mengapa ada orang yang membutuhkan matematika digital? Ini ada hubungannya dengan algoritma. Apa yang tidak dimiliki planimeter dan penganalisis diferensial adalah kemampuan pemrograman. Tidak mungkin mendefinisikan algoritma dan bahasa buatan. Melihat sejarah matematika menunjukkan, bahwa algoritma-teori itu tidak terlalu umum di masa lalu. Dalam matematika modern dibahas di bawah istilah Kalkulus Lambda dan masalah terputus - putus .
Lucunya, pada tampilan pertama kalkulus Lamda tidak memiliki aplikasi praktis. Tidak diperlukan jika seseorang ingin menghitung luas jembatan. Teori algoritma adalah sekolah pemikiran untuk meningkatkan pemikiran kritis. Ini adalah filosofi yang dibutuhkan oleh manusia, bukan oleh mesin.
sumber