The singularitas teknologi adalah titik teoritis dalam waktu di mana self-meningkatkan kecerdasan umum buatan menjadi mampu memahami dan memanipulasi konsep-konsep di luar jangkauan otak manusia, yaitu, saat ketika ia dapat memahami hal-hal manusia, dengan desain biologis, dapat' t.
Ketidakjelasan tentang singularitas berasal dari fakta bahwa, sejak singularitas dan seterusnya, sejarah secara efektif tidak dapat diprediksi. Manusia tidak akan dapat memprediksi peristiwa di masa depan, atau menjelaskan setiap peristiwa saat ini, karena sains itu sendiri tidak mampu menggambarkan peristiwa yang dipicu mesin. Pada dasarnya, mesin akan memikirkan kita seperti halnya kita memikirkan semut. Dengan demikian, kita tidak dapat membuat prediksi melewati singularitas. Selain itu, sebagai konsekuensi logis, kita tidak akan dapat menentukan titik di mana singularitas dapat terjadi sama sekali, atau bahkan mengenalinya ketika itu terjadi.
Namun, agar singularitas terjadi, AGI perlu dikembangkan, dan apakah itu mungkin merupakan perdebatan yang cukup panassekarang juga. Selain itu, suatu algoritma yang menciptakan kecerdasan manusia super dari bit dan byte harus dirancang. Menurut definisi, seorang programmer manusia tidak akan dapat melakukan hal seperti itu, karena otaknya perlu untuk dapat memahami konsep di luar jangkauannya. Ada juga argumen bahwa ledakan kecerdasan (mekanisme di mana singularitas teknologi akan terbentuk secara teoretis) tidak mungkin terjadi karena sulitnya tantangan desain untuk menjadikan dirinya lebih cerdas, semakin besar secara proporsional terhadap kecerdasannya, dan bahwa kesulitan tersebut dari desain itu sendiri dapat menyalip kecerdasan yang diperlukan untuk menyelesaikan tantangan tersebut (poin terakhir untuk dewa llama dalam komentar).
Juga, ada teori-teori terkait yang melibatkan mesin yang mengambil alih umat manusia dan semua cerita ilmiah itu. Namun, itu tidak mungkin terjadi, jika hukum Asimov diikuti dengan tepat. Sekalipun undang-undang Asimov tidak cukup, serangkaian kendala masih diperlukan untuk menghindari penyalahgunaan AGI oleh orang-orang yang tidak disengaja, dan hukum Asimov adalah yang terdekat dengan yang kita miliki.
Konsep "singularitas" adalah ketika mesin mengakali manusia. Meskipun pendapat Stephen Hawking adalah bahwa situasi ini tidak bisa dihindari, tetapi saya pikir akan sangat sulit untuk mencapai titik itu, karena setiap algoritma AI perlu diprogram oleh manusia, oleh karena itu akan selalu lebih terbatas daripada penciptanya.
Kita mungkin akan tahu kapan titik ketika manusia akan kehilangan kendali atas Artificial Intelligence di mana AI super-pintar akan bersaing dengan manusia dan mungkin menciptakan makhluk cerdas yang lebih canggih terjadi, tetapi saat ini, itu lebih seperti fiksi ilmiah (alias Terminator's Skynet ).
Resikonya bisa melibatkan pembunuhan orang (seperti drone perang yang terbang sendiri membuat keputusan sendiri), menghancurkan negara atau bahkan seluruh planet (seperti AI yang terhubung dengan senjata nuklir (alias film WarGames ), tetapi itu tidak membuktikan bahwa mesin akan lebih pintar dari manusia.
sumber
Singularitas, dalam konteks AI, adalah peristiwa teoretis di mana sistem cerdas dengan kriteria berikut digunakan.
Dengan induksi, teori kemudian memprediksi bahwa urutan peristiwa akan dihasilkan dengan tingkat peningkatan kecerdasan potensial yang mungkin jauh melebihi tingkat potensial evolusi otak.
Betapa diwajibkannya entitas yang berkembang sendiri atau populasi entitas yang diproklamasikan ini untuk melindungi kehidupan manusia dan kebebasan tidak dapat ditentukan. Gagasan bahwa kewajiban semacam itu dapat menjadi bagian dari kontrak perangkat lunak yang tidak dapat dibatalkan adalah naif mengingat sifat kemampuan yang terkait dengan kriteria (1) sampai (4) di atas. Seperti halnya teknologi canggih lainnya, risikonya sangat banyak dan berjangkauan luas seperti manfaat potensial.
Risiko terhadap kemanusiaan tidak membutuhkan kecerdasan. Ada konteks lain untuk penggunaan istilah singularitas, tetapi mereka berada di luar ruang lingkup forum AI ini tetapi mungkin layak disebutkan secara singkat untuk kejelasan. Rekayasa genetika, rekayasa nuklir, globalisasi, dan mendasarkan ekonomi internasional pada sumber energi yang terbatas dikonsumsi ribuan kali lebih cepat daripada yang muncul di bumi - Ini adalah contoh lain dari teknologi berisiko tinggi dan tren massa yang menimbulkan risiko serta manfaat untuk kemanusiaan.
Kembali ke AI, peringatan utama dalam teori singularitas adalah kegagalannya untuk memasukkan probabilitas. Meskipun dimungkinkan untuk mengembangkan entitas yang sesuai dengan kriteria (1) hingga (4) di atas, itu mungkin cukup mustahil sehingga peristiwa pertama terjadi lama setelah semua bahasa yang digunakan saat ini di Bumi mati.
Pada ekstrim lain dari distribusi probabilitas, orang dapat dengan mudah berpendapat bahwa ada probabilitas nol bahwa peristiwa pertama sudah terjadi.
Sejalan dengan itu, jika kehadiran yang lebih cerdas di mana sudah ada di Internet, seberapa besar kemungkinan ia akan menemukannya dalam kepentingan terbaiknya untuk mengungkapkan dirinya kepada umat manusia yang lebih rendah. Apakah kita memperkenalkan diri kepada belatung yang lewat?
sumber
"Singularitas," dilihat secara sempit, mengacu pada suatu titik di mana pertumbuhan ekonomi begitu cepat sehingga kita tidak dapat membuat prediksi yang berguna tentang seperti apa masa depan di masa itu.
Ini sering digunakan secara bergantian dengan "ledakan kecerdasan," yang ketika kita mendapatkan AI yang kuat, yang merupakan AI yang cukup cerdas untuk memahami dan meningkatkan dirinya sendiri. Tampaknya masuk akal untuk mengharapkan bahwa ledakan intelijen akan segera mengarah ke singularitas ekonomi, tetapi kebalikannya belum tentu benar.
sumber