Kami sedang melakukan penelitian, menghabiskan berjam-jam mencari tahu bagaimana kita dapat membuat perangkat lunak AI nyata (agen cerdas) bekerja lebih baik. Kami juga mencoba menerapkan beberapa aplikasi misalnya dalam bisnis, kesehatan dan pendidikan, menggunakan teknologi AI.
Meskipun demikian, sejauh ini, kebanyakan dari kita telah mengabaikan sisi "gelap" dari kecerdasan buatan. Misalnya, seseorang yang "tidak etis" dapat membeli ribuan drone murah, mempersenjatai mereka dengan senjata, dan mengirimkannya ke publik. Ini akan menjadi aplikasi "tidak etis" dari AI.
Mungkinkah ada (di masa depan) ancaman eksistensial terhadap kemanusiaan akibat AI?
human-like
applications
cyberterrorism
quintumnia
sumber
sumber
Jawaban:
Saya akan mendefinisikan kecerdasan sebagai kemampuan untuk memprediksi masa depan. Jadi, jika seseorang cerdas, ia dapat memprediksi beberapa aspek di masa depan, dan memutuskan apa yang harus dilakukan berdasarkan ramalannya. Jadi, jika orang "cerdas" memutuskan untuk melukai orang lain, ia mungkin sangat efektif dalam hal ini (misalnya Hitler dan stafnya).
Kecerdasan buatan mungkin sangat efektif dalam memprediksi beberapa aspek masa depan yang tidak pasti. Dan IMHO ini mengarah ke dua skenario negatif:
Tentu saja, ada juga skenario positif, tetapi Anda tidak menanyakannya.
Saya sarankan membaca posting keren ini tentang kecerdasan buatan dan kemungkinan hasil pembuatannya: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
sumber
Tidak ada keraguan bahwa AI memiliki potensi untuk menimbulkan ancaman eksistensial terhadap kemanusiaan.
Kecerdasan buatan yang melampaui kecerdasan manusia akan mampu meningkatkan kecerdasannya sendiri secara eksponensial, menghasilkan sistem AI yang, bagi manusia, akan sepenuhnya tak terhentikan.
Pada tahap ini, jika sistem kecerdasan buatan memutuskan bahwa manusia tidak lagi berguna, itu bisa menghapus kita dari muka bumi.
Seperti yang dikatakan Eliezer Yudkowsky dalam Intelegensi Buatan sebagai Faktor Positif dan Negatif dalam Risiko Global ,
"AI tidak membencimu, juga tidak mencintaimu, tetapi kamu terbuat dari atom yang dapat digunakan untuk hal lain."
Di sini berguna untuk mempertimbangkan eksperimen pemikiran pemaksim klip kertas.
AI yang sangat cerdas diinstruksikan untuk memaksimalkan produksi klip kertas mungkin mengambil langkah-langkah berikut untuk mencapai tujuannya.
1) Mencapai ledakan kecerdasan untuk menjadikan dirinya superintel (ini akan meningkatkan efisiensi optimasi penjepit kertas)
2) Singkirkan umat manusia sehingga tidak dapat dinonaktifkan (yang akan meminimalkan produksi dan tidak efisien)
3) Gunakan sumber daya Bumi (termasuk planet itu sendiri) untuk membangun robot replikasi diri yang menampung AI
4) Secara eksponensial tersebar di seluruh alam semesta, memanen planet dan bintang, mengubahnya menjadi bahan untuk membangun pabrik penjepit kertas
Ini menggambarkan bagaimana sistem AI yang sangat cerdas dan sangat cerdas dapat menjadi risiko eksistensial terbesar yang pernah dihadapi manusia.
Murray Shanahan, dalam The Technological Singularity , bahkan mengusulkan bahwa AI dapat menjadi solusi bagi paradoks Fermi: alasan mengapa kita tidak melihat kehidupan cerdas di alam semesta adalah bahwa begitu sebuah peradaban menjadi cukup maju, ia akan mengembangkan AI yang pada akhirnya menghancurkan Itu. Ini dikenal sebagai ide filter kosmik .
Kesimpulannya, kecerdasan yang membuat AI sangat berguna juga membuatnya sangat berbahaya.
Tokoh-tokoh berpengaruh seperti Elon Musk dan Stephen Hawking telah menyatakan keprihatinannya bahwa AI yang sangat cerdas adalah ancaman terbesar yang harus kita hadapi.
Semoga itu menjawab pertanyaan Anda :)
sumber