Tiga Hukum Robotika karya Isaac Asimov yang terkenal berasal dari konteks cerita fiksi ilmiah Asimov. Dalam cerita-cerita itu, ketiga undang-undang tersebut berfungsi sebagai langkah keamanan, untuk menghindari situasi yang tidak tepat waktu atau dimanipulasi agar tidak meledak dalam kekacauan.
Lebih sering daripada tidak, narasi Asimov akan menemukan cara untuk melanggarnya, membuat penulis membuat beberapa modifikasi pada undang-undang itu sendiri. Misalnya, dalam beberapa ceritanya, ia memodifikasi Hukum Pertama , menambahkan Hukum Keempat (atau Zeroth) , atau bahkan menghapus semua Hukum sekaligus .
Namun, mudah untuk menyatakan bahwa, dalam budaya populer, dan bahkan dalam bidang penelitian AI sendiri, Hukum Robotika ditanggapi dengan cukup serius. Mengabaikan masalah sampingan dari interpretasi hukum yang berbeda, subyektif, dan saling eksklusif, adakah argumen yang membuktikan bahwa hukum itu sendiri secara intrinsik cacat oleh rancangannya, atau, sebagai alternatif, cukup kuat untuk digunakan dalam kenyataan? Demikian juga, apakah heuristik keamanan yang lebih baik dan lebih ketat telah dirancang untuk tujuan tersebut?
sumber
Jawaban:
Hukum Asimov tidak cukup kuat untuk digunakan dalam praktik. Kekuatan bahkan tidak menjadi pertimbangan, ketika mempertimbangkan bahwa karena mereka ditulis dalam kata-kata bahasa Inggris pertama-tama harus ditafsirkan secara subyektif untuk memiliki makna sama sekali. Anda dapat menemukan diskusi yang bagus tentang ini di sini .
Untuk menyalin kutipan:
Orang dapat dengan mudah membayangkan bahwa Asimov cukup pintar untuk mengetahui hal ini dan lebih tertarik pada penulisan cerita daripada merancang protokol kontrol AI dunia nyata.
Dalam novel Neuromancer , disarankan bahwa AI mungkin bisa berfungsi sebagai pemeriksaan terhadap satu sama lain. Singularitas yang akan datang dari Ray Kurzweil , atau kemungkinan AGI yang sangat cerdas, mungkin tidak meninggalkan banyak kemungkinan bagi manusia untuk mengendalikan AI sama sekali, meninggalkan peraturan rekan sebaya sebagai satu-satunya kemungkinan yang mungkin.
Patut dicatat bahwa Eliezer Yudkowsky dan yang lainnya menjalankan eksperimen di mana Yudkowsky memainkan peran sebagai AI yang superintelijen dengan kemampuan berbicara, tetapi tidak ada koneksi lain di luar kotak yang terkunci. Para penantang ditugaskan hanya untuk menjaga AI di dalam kotak di semua biaya. Yudkowsky lolos dua kali.
sumber
Asimov membuat tiga undang - undang secara khusus untuk membuktikan bahwa tidak ada tiga undang-undang yang memadai, tidak peduli seberapa masuk akalnya pada awalnya. Saya tahu seorang pria yang mengenal pria itu dan dia mengkonfirmasi hal ini.
sumber
Pertimbangkan hukum robotika pertama Asimov:
Undang-undang itu sudah bermasalah, ketika mempertimbangkan mobil yang bisa menyetir sendiri.
Apa masalahnya di sini, Anda bertanya? Mungkin Anda akan terbiasa dengan eksperimen pemikiran klasik dalam etika yang dikenal sebagai masalah troli . Bentuk umum dari masalahnya adalah ini:
Mobil self-driving sebenarnya perlu menerapkan variasi kehidupan nyata pada masalah troli, yang pada dasarnya berarti bahwa mobil self-driving perlu diprogram untuk membunuh manusia .
Tentu saja itu tidak berarti bahwa SEMUA robot perlu diprogram untuk membunuh, tetapi mobil yang bisa mengemudi sendiri adalah contoh yang baik dari jenis robot yang mau.
sumber