Jelas, mobil self-driving tidak sempurna, jadi bayangkan mobil Google (sebagai contoh) masuk ke situasi yang sulit.
Berikut adalah beberapa contoh situasi yang tidak menguntungkan yang disebabkan oleh serangkaian peristiwa:
- Mobil itu menuju ke arah kerumunan 10 orang menyeberang jalan, sehingga tidak bisa berhenti tepat waktu, tetapi dapat menghindari membunuh 10 orang dengan menabrak dinding (membunuh penumpang),
- Menghindari membunuh pengendara sepeda motor mengingat kemungkinan bertahan hidup lebih besar bagi penumpang mobil,
- Membunuh binatang di jalan demi manusia,
- Mengubah jalur untuk menabrak mobil lain untuk menghindari membunuh seekor anjing,
Dan inilah beberapa dilema:
- Apakah algoritme mengenali perbedaan antara manusia dan hewan?
- Apakah ukuran manusia atau hewan itu penting?
- Apakah itu menghitung berapa banyak penumpang yang dimiliki vs orang di depan?
- Apakah itu "tahu" ketika bayi / anak-anak di kapal?
- Apakah itu memperhitungkan usia (mis. Membunuh yang lebih tua dulu)?
Bagaimana algoritma memutuskan apa yang harus dilakukan dari perspektif teknis? Apakah itu disadari di atas (menghitung probabilitas pembunuhan), atau tidak (membunuh orang hanya untuk menghindari kehancurannya sendiri)?
Artikel terkait:
Jawaban:
Seharusnya tidak. Mobil self-driving bukanlah agen moral. Mobil gagal dengan cara yang dapat diprediksi. Kuda gagal dengan cara yang dapat diprediksi.
Dalam hal ini, mobil harus menginjak rem. Jika 10 orang mati, itu hanya disayangkan. Kami tidak bisa mempercayai semua keyakinan kami tentang apa yang terjadi di luar mobil. Bagaimana jika 10 orang itu benar-benar robot yang dibuat agar terlihat seperti orang? Bagaimana jika mereka mencoba membunuhmu?
Sekali lagi, mengkodekan jenis-jenis sentimen ini ke dalam kendaraan akan membuka pengendara kendaraan hingga semua jenis serangan, termasuk pengendara sepeda motor "palsu" . Manusia nyaris tidak diperlengkapi untuk membuat keputusan ini sendiri, jika sama sekali. Ketika ragu, cukup banting rem.
Sekali lagi, cukup tekan rem. Bagaimana jika itu bayi? Bagaimana jika itu bom?
Nggak. Anjing itu berada di tempat yang salah pada waktu yang salah. Mobil lain tidak. Cukup banting rem, seaman mungkin.
Apakah manusia? Tidak selalu. Bagaimana jika manusia memiliki senjata? Bagaimana jika hewan itu memiliki gigi besar? Apakah tidak ada konteks?
Manusia tidak bisa menyetujui hal-hal ini. Jika Anda bertanya kepada polisi apa yang harus dilakukan dalam situasi ini, jawabannya tidak akan, "Anda harus berbelok ke kiri, menimbang semua pihak yang relevan di kepala Anda, menilai usia yang relevan di antara semua pihak, lalu berbelok sedikit ke kanan, dan Anda akan menyelamatkan 8% lebih banyak nyawa. " Tidak, polisi hanya akan berkata, "Anda seharusnya menghentikan kendaraan, secepat dan seaman mungkin." Mengapa? Karena polisi tahu orang-orang biasanya tidak diperlengkapi untuk menghadapi skenario kecelakaan berkecepatan tinggi.
Target kita untuk "mobil yang bisa menyetir sendiri" seharusnya tidak menjadi 'agen moral yang setara dengan manusia.' Seharusnya agen dengan kompleksitas kecoa reaktif, yang gagal diprediksi.
sumber
Jawaban atas banyak pertanyaan itu tergantung pada bagaimana perangkat diprogram. Komputer yang mampu berkeliling dan mengenali jalan yang dilaluinya cenderung memiliki kemampuan untuk membedakan manusia dari binatang secara visual, apakah itu berdasarkan garis besar, gambar, atau ukuran. Dengan pengenalan gambar yang cukup tajam, mungkin bisa menghitung jumlah dan jenis orang di kendaraan lain. Bahkan bisa menggunakan data yang ada tentang kemungkinan cedera pada orang di berbagai jenis kendaraan.
Pada akhirnya, orang tidak setuju pada pilihan etis yang terlibat. Mungkin ada "pengaturan etika" untuk dikonfigurasikan oleh pengguna / pemilik, seperti "anggap saja hitungan kehidupan" vs. "kehidupan yang lebih muda lebih berharga." Saya pribadi akan berpikir itu tidak terlalu kontroversial bahwa mesin harus merusak dirinya sendiri sebelum membahayakan manusia, tetapi orang tidak setuju tentang betapa pentingnya kehidupan hewan peliharaan. Jika pengaturan kill-this-first eksplisit membuat orang tidak nyaman, jawabannya dapat ditentukan dari kuesioner yang diberikan kepada pengguna.
sumber
Secara pribadi, saya pikir ini mungkin masalah overhyped. Masalah troli hanya terjadi ketika situasi dioptimalkan untuk mencegah "opsi ke-3".
Mobil punya rem, bukan? "Tapi bagaimana kalau remnya tidak berfungsi?" Nah, maka mobil tidak diperbolehkan mengemudi sama sekali. Bahkan dalam lalu lintas reguler, operator manusia diajari bahwa kecepatan Anda harus dibatasi sehingga Anda dapat berhenti di area yang dapat Anda lihat. Solusi seperti ini akan mengurangi kemungkinan masalah troli.
Adapun hewan ... jika tidak ada upaya eksplisit untuk berurusan dengan manusia di jalan saya pikir hewan akan diperlakukan sama. Ini kedengarannya tidak masuk akal - roadkill sering terjadi dan "roadkill" manusia tidak diinginkan, tetapi hewan jauh lebih kecil dan lebih sulit dilihat daripada manusia, jadi saya pikir mendeteksi manusia akan lebih mudah, mencegah banyak kecelakaan.
Dalam kasus lain (bug, kesalahan saat mengemudi, beberapa kegagalan bertumpuk satu sama lain), mungkin kecelakaan akan terjadi, mereka akan dianalisis, dan kendaraan akan diperbarui untuk menghindari menyebabkan situasi yang serupa.
sumber
Ini adalah Masalah Trolley yang terkenal . Seperti yang dikatakan Ben N , orang tidak sependapat mengenai tindakan yang tepat untuk skenario masalah troli, tetapi harus dicatat bahwa dengan mobil self-driving, keandalannya sangat tinggi sehingga skenario ini benar-benar tidak mungkin. Jadi, tidak banyak usaha akan dimasukkan ke dalam masalah yang Anda gambarkan, setidaknya dalam jangka pendek.
sumber
Di dunia nyata, keputusan akan dibuat berdasarkan pada hukum, dan sebagaimana dicatat oleh Law.SE , hukum umumnya lebih memilih tidak bertindak daripada tindakan.
sumber
Untuk mobil tanpa pengemudi yang dirancang oleh satu entitas, cara terbaik untuk membuat keputusan tentang siapa yang akan dibunuh adalah dengan memperkirakan dan meminimalkan kemungkinan pertanggungjawaban.
Tidak perlu benar-benar mengidentifikasi semua calon korban di daerah untuk memiliki pembelaan atas keputusannya, hanya untuk mengidentifikasi mereka dan juga manusia yang diharapkan.
Bahkan tidak perlu mengetahui usia dan kondisi fisik setiap orang di dalam mobil, karena dapat meminta informasi itu dan jika ditolak, memiliki pembelaan bahwa penumpang memilih untuk tidak menyediakannya, dan oleh karena itu mengambil tanggung jawab untuk merampasnya dari kemampuan untuk membuat keputusan yang lebih baik.
Itu hanya harus memiliki model yang layak untuk meminimalkan eksposur entitas terhadap tuntutan hukum, yang kemudian dapat ditingkatkan dari waktu ke waktu untuk membuatnya lebih menguntungkan.
sumber
Kutipan ini dari sebuah artikel berjudul Self-Driving Mercedes-Benzes Akan Mengutamakan Keselamatan Penghuni di atas Pejalan Kaki yang diterbitkan OKTOBER 7, 2016 OLEH MICHAEL TAYLOR , diambil 08 Nov 2016.
Berikut adalah kutipan yang menguraikan solusi teknologi dan praktis untuk masalah tersebut.
Artikel di sana juga memuat paragraf menarik berikut.
sumber
Sejujurnya saya pikir masalah ini (Masalah Trolley) pada dasarnya terlalu rumit, karena solusi dunia nyata mungkin cukup mudah. Seperti pengemudi manusia, pengemudi AI akan diprogram untuk bertindak setiap saat dengan cara yang etis secara umum, selalu memilih tindakan yang tidak membahayakan, atau paling tidak membahayakan.
Jika seorang pengemudi AI menghadapi bahaya seperti kerusakan properti yang akan terjadi, jelas AI akan mengerem keras dan mengarahkan mobil menjauh dari benda yang mudah pecah untuk menghindari atau meminimalkan dampak. Jika bahayanya menabrak pejalan kaki atau mobil atau bangunan, ia akan memilih untuk bertabrakan dengan benda yang paling tidak berharga atau mahal, untuk melakukan yang paling tidak membahayakan - menempatkan nilai yang lebih tinggi pada manusia daripada bangunan atau anjing.
Akhirnya, jika pilihan pengemudi AI mobil Anda adalah menabrak anak atau menabrak dinding ... itu akan mengarahkan mobil, dan Anda , ke dinding. Itulah yang dilakukan manusia baik mana pun. Mengapa AI yang baik bertindak berbeda?
sumber
Seharusnya tidak. Orang seharusnya.
Orang tidak dapat menyerahkan tanggung jawab keputusan etis ke tangan komputer. Merupakan tanggung jawab kami sebagai ilmuwan komputer / pakar AI untuk memprogram keputusan yang akan dibuat komputer. Akankah korban manusia masih ada dari ini? Tentu saja, mereka akan --- orang tidak sempurna dan tidak ada program.
Ada perdebatan mendalam yang sangat baik tentang topik ini di sini . Saya terutama menyukai argumen Yann LeCun mengenai dilema etis paralel dari pengujian obat yang berpotensi mematikan pada pasien. Mirip dengan mobil self-driving, keduanya bisa mematikan sementara memiliki niat baik menyelamatkan lebih banyak orang dalam jangka panjang.
sumber
Bagaimana mobil self-driving dapat membuat keputusan etis tentang siapa yang harus dibunuh?
Dengan mengelola tanggung jawab hukum dan keselamatan konsumen.
Mobil yang menawarkan keamanan konsumen akan menjadi mobil yang dibeli oleh konsumen tersebut. Perusahaan tidak ingin bertanggung jawab atas pembunuhan pelanggan mereka atau ingin menjual produk yang membuat pengguna dalam kesulitan hukum. Tanggung jawab hukum dan keselamatan konsumen adalah masalah yang sama ketika dilihat dari perspektif "biaya untuk konsumen".
Jika seekor binatang / manusia tidak dapat dihindari secara hukum (dan mobil itu dalam hak yang sah - jika tidak maka ada sesuatu yang salah dengan pengambilan keputusan AI), kemungkinan tidak akan. Jika mobil dapat dengan aman menghindari rintangan, AI dapat dilihat untuk membuat keputusan ini, yaitu. berbelok ke jalur lain di jalan raya terbuka. Perhatikan ada penekanan pada tanggung jawab dan keselamatan pengemudi.
Hanya faktor risiko dari menghantam rintangan. Memukul kuda nil mungkin kurang diinginkan daripada memukul parit. Memukul anjing sepertinya lebih diinginkan daripada merusak mobil pelanggan.
Orang-orang dianggap sebagai penumpang untuk melihat apakah jalur penyatuan mobil dapat diambil. Ini menghitung orang di depan sebagai faktor risiko jika terjadi tabrakan.
Tidak.
Tidak. Ini hanyalah abstraksi yang salah untuk membuat keputusan, bagaimana hal ini dapat dipertimbangkan untuk memilih tindakan yang tepat untuk mengurangi faktor risiko? Jika Opsi 1 dihantam pria muda dengan 20% kemungkinan kerusakan penghuni yang signifikan dan tidak ada tanggung jawab hukum dan Opsi 2 ditabrak orang tua dengan 21% kemungkinan kerusakan penumpang yang signifikan dan tidak ada pertanggungjawaban hukum, maka apa yang dapat meyakinkan filsuf bahkan hanya 1 orang saja. bobot yang adil dan merata untuk membuat keputusan?
Untungnya, keputusan terbaik banyak waktu adalah untuk mencapai jeda waktu untuk mengurangi kecepatan (terutama ketika Anda menganggap bahwa sering kali berharga untuk bertindak seperti yang diperkirakan sehingga pejalan kaki dan pengendara motor dapat bereaksi sesuai). Sementara itu, peningkatan nilai yang lebih baik dapat dibuat dalam hal memprediksi kapan pengemudi akan membuat keputusan yang buruk dan ketika tindakan lain (seperti memukul mundur) lebih menguntungkan daripada memukul istirahat. Pada titik ini, bahkan tidak layak untuk mulai mengumpulkan informasi untuk membuat keputusan etis yang diajukan oleh para filsuf. Dengan demikian, masalah ini terlalu dibesar-besarkan oleh jurnalis dan filsuf sensasional.
sumber
Saya pikir dalam kebanyakan kasus mobil akan default untuk mengurangi kecepatan sebagai pilihan utama, daripada mengarahkan ke atau menjauh dari pilihan tertentu. Seperti yang disebutkan orang lain, memiliki pengaturan yang terkait dengan etika hanyalah ide yang buruk. Apa yang terjadi jika dua mobil yang diprogram dengan pengaturan etika yang berlawanan dan akan bertabrakan? Mobil-mobil berpotensi memiliki sistem untuk menimpa pengaturan pengguna dan memilih solusi yang paling saling menguntungkan. Ini memang konsep yang menarik, dan pasti harus didiskusikan dan distandarkan sebelum implementasi yang luas. Menempatkan keputusan etis di tangan mesin membuat tanggung jawab yang dihasilkan terkadang sulit untuk digambarkan.
sumber
Saya pikir tidak akan ada cara untuk mengedit pengaturan etika di dalam mobil. Tapi, hei, jika ponsel dapat di-root, mengapa tidak mobil? Saya membayangkan akan ada Linux build di masa depan untuk model tertentu yang akan membiarkan Anda melakukan apa pun yang Anda inginkan.
Adapun siapa yang akan membuat keputusan seperti itu, itu akan seperti masalah privasi hari ini. Akan ada tarik ulur selimut oleh penyedia OS (yang akan mencoba untuk mengaturnya ke jumlah minimum orang yang terluka, masing-masing dengan metode sendiri), perusahaan asuransi (yang akan mencoba membuat Anda membayar lebih banyak untuk OS yang secara statistik akan menunjukkan kerusakan mobil Anda lebih mudah), dan produsen mobil (yang ingin Anda menghancurkan mobil Anda sesegera mungkin, sehingga Anda akan membeli yang baru; atau membuat mobil yang memerlukan konyol) jumlah layanan $$$).
Kemudian beberapa pelapor akan keluar dan mengekspos sepotong kode yang memilih untuk membunuh anak-anak daripada orang dewasa - karena akan lebih sulit membedakan mereka dari hewan, dan akan mengambil kesempatan untuk menyelamatkan siapa yang lebih dikenal sebagai manusia. Pabrikan OS akan mendapatkan tamparan dari publik dan sebuah konsensus baru akan ditemukan. Pelapor akan keluar dari perusahaan asuransi dan produsen mobil juga.
Umat manusia akan mengambil wajan panas dan membakar dirinya sendiri dan kemudian belajar mengenakan sarung tangan sebelumnya. Saran saya hanya akan memastikan Anda tidak akan menjadi tangan itu - tinggal jauh dari mereka selama beberapa tahun sampai semua kesalahan awal dibuat.
sumber
Satu-satunya pilihan yang masuk akal adalah menggunakan perilaku yang dapat diprediksi. Jadi pada orang-orang di depan skenario mobil: Pertama mobil menginjak rem, pada saat yang sama membunyikan klakson, dan tetap di jalur. Orang-orang kemudian memiliki kesempatan untuk melompat keluar dari jalan menuju nol orang terbunuh. Juga dengan rem penuh (mulai dari 50 km per jam ke nol kurang dari 3 panjang mobil), situasi dampak hampir tidak bisa dibayangkan. Bahkan jika pemberhentian penuh tidak dapat dicapai, kerusakan parah pada pejalan kaki tidak mungkin terjadi.
Skenario lain hanya gila. Jadi jaraknya harus kurang dari 3 panjang mobil, setidaknya 1 panjang mobil yang dibutuhkan untuk kemudi, maka menabrak mobil adalah situasi yang tidak terkendali, dapat menyebabkan pemintalan dan membunuh 11 orang.
Selain mengatakan bahwa saya tidak percaya ada contoh dalam kenyataan di mana ada dilema; solusi dalam kasus-kasus yang tidak biasa ini jika untuk menyesuaikan dengan harapan pihak lawan untuk memungkinkan pihak lain untuk mengurangi situasi juga.
sumber