Apa konsep singularitas teknologi?

32

Saya telah mendengar gagasan tentang singularitas teknologi, apa itu dan bagaimana hubungannya dengan Kecerdasan Buatan? Apakah ini titik teoretis di mana mesin Inteligensi Buatan telah berkembang ke titik di mana mereka tumbuh dan belajar sendiri di luar apa yang bisa dilakukan manusia dan pertumbuhannya lepas landas? Bagaimana kita tahu kapan kita mencapai titik ini?

WilliamKF
sumber

Jawaban:

20

The singularitas teknologi adalah titik teoritis dalam waktu di mana self-meningkatkan kecerdasan umum buatan menjadi mampu memahami dan memanipulasi konsep-konsep di luar jangkauan otak manusia, yaitu, saat ketika ia dapat memahami hal-hal manusia, dengan desain biologis, dapat' t.

Ketidakjelasan tentang singularitas berasal dari fakta bahwa, sejak singularitas dan seterusnya, sejarah secara efektif tidak dapat diprediksi. Manusia tidak akan dapat memprediksi peristiwa di masa depan, atau menjelaskan setiap peristiwa saat ini, karena sains itu sendiri tidak mampu menggambarkan peristiwa yang dipicu mesin. Pada dasarnya, mesin akan memikirkan kita seperti halnya kita memikirkan semut. Dengan demikian, kita tidak dapat membuat prediksi melewati singularitas. Selain itu, sebagai konsekuensi logis, kita tidak akan dapat menentukan titik di mana singularitas dapat terjadi sama sekali, atau bahkan mengenalinya ketika itu terjadi.

Namun, agar singularitas terjadi, AGI perlu dikembangkan, dan apakah itu mungkin merupakan perdebatan yang cukup panassekarang juga. Selain itu, suatu algoritma yang menciptakan kecerdasan manusia super dari bit dan byte harus dirancang. Menurut definisi, seorang programmer manusia tidak akan dapat melakukan hal seperti itu, karena otaknya perlu untuk dapat memahami konsep di luar jangkauannya. Ada juga argumen bahwa ledakan kecerdasan (mekanisme di mana singularitas teknologi akan terbentuk secara teoretis) tidak mungkin terjadi karena sulitnya tantangan desain untuk menjadikan dirinya lebih cerdas, semakin besar secara proporsional terhadap kecerdasannya, dan bahwa kesulitan tersebut dari desain itu sendiri dapat menyalip kecerdasan yang diperlukan untuk menyelesaikan tantangan tersebut (poin terakhir untuk dewa llama dalam komentar).

Juga, ada teori-teori terkait yang melibatkan mesin yang mengambil alih umat manusia dan semua cerita ilmiah itu. Namun, itu tidak mungkin terjadi, jika hukum Asimov diikuti dengan tepat. Sekalipun undang-undang Asimov tidak cukup, serangkaian kendala masih diperlukan untuk menghindari penyalahgunaan AGI oleh orang-orang yang tidak disengaja, dan hukum Asimov adalah yang terdekat dengan yang kita miliki.

3442
sumber
Ada juga argumen bahwa ledakan kecerdasan (mekanisme di mana singularitas teknologi akan terbentuk secara teoretis) tidak mungkin terjadi karena sulitnya tantangan desain untuk menjadikan dirinya lebih cerdas semakin besar secara proporsional terhadap kecerdasannya, dan bahwa kesulitan tantangan desain dapat melampaui kecerdasan yang dibutuhkan untuk menyelesaikan tantangan desain tersebut. << Anda mungkin ingin menambahkan ini ke jawaban Anda untuk membuatnya lebih lengkap / komprehensif.
Dewa llama
1
Hukum robotika Asimov tidak dianggap serius, mereka sebenarnya dibuat untuk menunjukkan banyak cara mereka bisa salah dan disalahtafsirkan oleh AI (dengan asumsi tentu saja AI tidak tumbuh cukup cerdas untuk sepenuhnya mengabaikan mereka dan membuat sendiri. maksud dan tujuan) dan ini adalah tentang apa cerita itu. Lihat video ini .
Dewa llama
@ godofllamas: Terima kasih atas proposal Anda, saya memperbarui jawabannya. Mengenai hukum Asimov, AFAIK, hukum ke nol dirancang tepat untuk menghindari banyak cara bahwa tiga hukum asli (ab) digunakan dalam cerita Asimov. Bagaimanapun, sebuah AI secara definitif perlu dibatasi, entah itu hukum Asimov atau apa pun, untuk menghindari kemungkinan penyalahgunaannya dan kekacauan lebih lanjut.
3442
Memahami hal-hal yang tidak bisa dilakukan manusia bukanlah persyaratan teori singularitas dalam AI. Jika mesin hanya bisa memahami 1% dari apa yang dipahami manusia tetapi bisa menggandakan tingkat pemahaman itu setiap tahun, singularitas akan terjadi. Sekalipun mesin itu tidak pernah melampaui otak manusia secara kualitatif, jika mesin itu dapat memproses lebih cepat atau lebih andal, ia akan tetap menunjukkan keunggulan dan kemungkinan mencapai dominasi.
FauChristian
3

Konsep "singularitas" adalah ketika mesin mengakali manusia. Meskipun pendapat Stephen Hawking adalah bahwa situasi ini tidak bisa dihindari, tetapi saya pikir akan sangat sulit untuk mencapai titik itu, karena setiap algoritma AI perlu diprogram oleh manusia, oleh karena itu akan selalu lebih terbatas daripada penciptanya.

Kita mungkin akan tahu kapan titik ketika manusia akan kehilangan kendali atas Artificial Intelligence di mana AI super-pintar akan bersaing dengan manusia dan mungkin menciptakan makhluk cerdas yang lebih canggih terjadi, tetapi saat ini, itu lebih seperti fiksi ilmiah (alias Terminator's Skynet ).

Resikonya bisa melibatkan pembunuhan orang (seperti drone perang yang terbang sendiri membuat keputusan sendiri), menghancurkan negara atau bahkan seluruh planet (seperti AI yang terhubung dengan senjata nuklir (alias film WarGames ), tetapi itu tidak membuktikan bahwa mesin akan lebih pintar dari manusia.

kenorb
sumber
`setiap algoritma AI perlu diprogram oleh manusia` -> Gagasan umum di balik AI adalah bahwa mesin dapat belajar dengan meningkatkan pemrograman mereka sendiri. Secara teoritis, ini bisa mengakibatkan mesin pada akhirnya menjadi lebih pintar dari kita, dan mampu membuat algoritma lebih unggul dari algoritma apa pun yang ditulis oleh manusia, yang pada gilirannya akan menghasilkan AI yang lebih baik.
John Slegers
"setiap algoritma AI perlu diprogram oleh manusia, oleh karena itu akan selalu lebih terbatas daripada pembuatnya" - ini adalah argumen yang menarik. Berikut adalah argumen konter -1) kita tidak perlu mengkode kecerdasan AI. kita perlu kode AI untuk kemampuan untuk mengamati, menyimpulkan dan memahami. Setelah itu, mungkin, hanya dengan menambahkan lebih banyak kekuatan pemrosesan dan yang lebih cepat akan membuat AI mampu belajar dan memahami lebih baik dari kita.2) Juga, jika 1000 manusia menerapkan otak mereka untuk membangun AI, AI mungkin memiliki kecerdasan lebih dari 1 manusia.
akm
Algoritma TIDAK perlu diprogram oleh manusia. Adalah mungkin dan sebenarnya agak umum untuk mengubah, bermutasi, mengoptimalkan, mengevaluasi, dan memilih algoritma; dan mesin sudah mengakali manusia dalam beberapa hal dan cukup sering.
FauChristian
3

Singularitas, dalam konteks AI, adalah peristiwa teoretis di mana sistem cerdas dengan kriteria berikut digunakan.

  1. Mampu meningkatkan jangkauan kecerdasannya sendiri atau menggunakan sistem lain dengan jangkauan yang ditingkatkan tersebut
  2. Bersedia atau dipaksa untuk melakukannya
  3. Mampu melakukannya tanpa adanya pengawasan manusia
  4. Versi yang ditingkatkan mendukung kriteria (1) hingga (3) secara rekursif

Dengan induksi, teori kemudian memprediksi bahwa urutan peristiwa akan dihasilkan dengan tingkat peningkatan kecerdasan potensial yang mungkin jauh melebihi tingkat potensial evolusi otak.

Betapa diwajibkannya entitas yang berkembang sendiri atau populasi entitas yang diproklamasikan ini untuk melindungi kehidupan manusia dan kebebasan tidak dapat ditentukan. Gagasan bahwa kewajiban semacam itu dapat menjadi bagian dari kontrak perangkat lunak yang tidak dapat dibatalkan adalah naif mengingat sifat kemampuan yang terkait dengan kriteria (1) sampai (4) di atas. Seperti halnya teknologi canggih lainnya, risikonya sangat banyak dan berjangkauan luas seperti manfaat potensial.

Risiko terhadap kemanusiaan tidak membutuhkan kecerdasan. Ada konteks lain untuk penggunaan istilah singularitas, tetapi mereka berada di luar ruang lingkup forum AI ini tetapi mungkin layak disebutkan secara singkat untuk kejelasan. Rekayasa genetika, rekayasa nuklir, globalisasi, dan mendasarkan ekonomi internasional pada sumber energi yang terbatas dikonsumsi ribuan kali lebih cepat daripada yang muncul di bumi - Ini adalah contoh lain dari teknologi berisiko tinggi dan tren massa yang menimbulkan risiko serta manfaat untuk kemanusiaan.

Kembali ke AI, peringatan utama dalam teori singularitas adalah kegagalannya untuk memasukkan probabilitas. Meskipun dimungkinkan untuk mengembangkan entitas yang sesuai dengan kriteria (1) hingga (4) di atas, itu mungkin cukup mustahil sehingga peristiwa pertama terjadi lama setelah semua bahasa yang digunakan saat ini di Bumi mati.

Pada ekstrim lain dari distribusi probabilitas, orang dapat dengan mudah berpendapat bahwa ada probabilitas nol bahwa peristiwa pertama sudah terjadi.

Sejalan dengan itu, jika kehadiran yang lebih cerdas di mana sudah ada di Internet, seberapa besar kemungkinan ia akan menemukannya dalam kepentingan terbaiknya untuk mengungkapkan dirinya kepada umat manusia yang lebih rendah. Apakah kita memperkenalkan diri kepada belatung yang lewat?

Douglas Daseeco
sumber
Terima kasih untuk penjelasannya. Saya harus mengakui bahwa saya gagal memahami, secara konseptual, seperti apa kondisi ini secara praktis, terutama 1). Agaknya, suatu algoritma diimplementasikan dengan sekumpulan input dan output yang kurang lebih pasti. Apakah kita harus menganggapnya mengubah set itu untuk 1) menjadi benar? Mengapa setiap pengembang manusia memilih untuk membiarkan itu, setidaknya secara tidak terkendali, bahkan jauh sebelum tingkat AGI? Dan ... apakah itu pertanyaan naif? :)
Cpt Reynolds
0

"Singularitas," dilihat secara sempit, mengacu pada suatu titik di mana pertumbuhan ekonomi begitu cepat sehingga kita tidak dapat membuat prediksi yang berguna tentang seperti apa masa depan di masa itu.

Ini sering digunakan secara bergantian dengan "ledakan kecerdasan," yang ketika kita mendapatkan AI yang kuat, yang merupakan AI yang cukup cerdas untuk memahami dan meningkatkan dirinya sendiri. Tampaknya masuk akal untuk mengharapkan bahwa ledakan intelijen akan segera mengarah ke singularitas ekonomi, tetapi kebalikannya belum tentu benar.

Matthew Graves
sumber