Bagaimana mobil self-driving dapat membuat keputusan etis tentang siapa yang harus dibunuh?

74

Jelas, mobil self-driving tidak sempurna, jadi bayangkan mobil Google (sebagai contoh) masuk ke situasi yang sulit.

Berikut adalah beberapa contoh situasi yang tidak menguntungkan yang disebabkan oleh serangkaian peristiwa:

  • Mobil itu menuju ke arah kerumunan 10 orang menyeberang jalan, sehingga tidak bisa berhenti tepat waktu, tetapi dapat menghindari membunuh 10 orang dengan menabrak dinding (membunuh penumpang),
  • Menghindari membunuh pengendara sepeda motor mengingat kemungkinan bertahan hidup lebih besar bagi penumpang mobil,
  • Membunuh binatang di jalan demi manusia,
  • Mengubah jalur untuk menabrak mobil lain untuk menghindari membunuh seekor anjing,

Dan inilah beberapa dilema:

  • Apakah algoritme mengenali perbedaan antara manusia dan hewan?
  • Apakah ukuran manusia atau hewan itu penting?
  • Apakah itu menghitung berapa banyak penumpang yang dimiliki vs orang di depan?
  • Apakah itu "tahu" ketika bayi / anak-anak di kapal?
  • Apakah itu memperhitungkan usia (mis. Membunuh yang lebih tua dulu)?

Bagaimana algoritma memutuskan apa yang harus dilakukan dari perspektif teknis? Apakah itu disadari di atas (menghitung probabilitas pembunuhan), atau tidak (membunuh orang hanya untuk menghindari kehancurannya sendiri)?

Artikel terkait:

kenorb
sumber
3
AKU tidak akan mengendarai kendaraan apa pun yang diprogram untuk tidak menjadikan AKU penumpang sebagai prioritas utama keselamatan. Saya tidak sendirian dalam pemikiran itu. Jika ada yang berencana memaksa pembuat kendaraan otonom untuk memprogram kendaraan mereka untuk melakukan hal lain selain memprioritaskan keselamatan penumpangnya, maka seluruh industri mungkin juga akan menutup pintu mereka sekarang. Beberapa kali pertama seorang penumpang meninggal karena beberapa keputusan etis yang menjijikkan akan menjadi yang terakhir kali sebagian besar orang akan membeli kendaraan otonom lain. Siapa yang mau mengendarai jebakan maut?
Dunk
Yang disebut "masalah troli" adalah masalah troll-y. Ada alasan yang dikenal sebagai eksperimen pikiran daripada studi kasus: itu bukan sesuatu yang pernah terjadi. Bahkan tidak mendekati kenyataan, sebagian besar karena mobil pada dasarnya bukan troli. Jawaban yang tepat dalam kasus apa pun yang berlaku dari jarak jauh hampir selalu "menginjak rem," dan jika ada pengecualian, itu hanya dapat diselesaikan dengan satu cara: dengan melindungi penghuni mobil dengan segala cara dan bahkan tidak pernah mempertimbangkan hal lain , karena dua alasan.
Mason Wheeler
2
Yang pertama, @Dunk membahas dengan cukup baik: pragmatisme. Jika mungkin bagi mobil untuk membuat pilihan yang berbeda, tidak ada orang waras yang mau membelinya. Yang kedua adalah jika ada fungsi "bunuh semua orang" yang ada di komputer mobil, itu berarti sudah ada di sana untuk ditemukan dan disalahgunakan oleh peretas jahat. Timbang peluang yang sangat nyata dari seseorang yang mencari cara untuk memicu hal itu dengan masukan yang berlawanan dengan gagasan fiktif murni tentang situasi masalah troli yang sah, dan hanya ada satu kemungkinan jawaban yang tidak masuk akal secara moral dan menjijikkan.
Mason Wheeler

Jawaban:

54

Bagaimana mobil self-driving dapat membuat keputusan etis tentang siapa yang harus dibunuh?

Seharusnya tidak. Mobil self-driving bukanlah agen moral. Mobil gagal dengan cara yang dapat diprediksi. Kuda gagal dengan cara yang dapat diprediksi.

mobil menuju ke arah kerumunan 10 orang menyeberang jalan, sehingga tidak bisa berhenti tepat waktu, tetapi dapat menghindari membunuh 10 orang dengan menabrak dinding (membunuh penumpang),

Dalam hal ini, mobil harus menginjak rem. Jika 10 orang mati, itu hanya disayangkan. Kami tidak bisa mempercayai semua keyakinan kami tentang apa yang terjadi di luar mobil. Bagaimana jika 10 orang itu benar-benar robot yang dibuat agar terlihat seperti orang? Bagaimana jika mereka mencoba membunuhmu?

menghindari membunuh pengendara sepeda motor mengingat bahwa kemungkinan bertahan hidup lebih besar bagi penumpang mobil,

Sekali lagi, mengkodekan jenis-jenis sentimen ini ke dalam kendaraan akan membuka pengendara kendaraan hingga semua jenis serangan, termasuk pengendara sepeda motor "palsu" . Manusia nyaris tidak diperlengkapi untuk membuat keputusan ini sendiri, jika sama sekali. Ketika ragu, cukup banting rem.

membunuh binatang di jalan demi manusia,

Sekali lagi, cukup tekan rem. Bagaimana jika itu bayi? Bagaimana jika itu bom?

mengubah jalur untuk menabrak mobil lain untuk menghindari membunuh seekor anjing,

Nggak. Anjing itu berada di tempat yang salah pada waktu yang salah. Mobil lain tidak. Cukup banting rem, seaman mungkin.

Apakah algoritme mengenali perbedaan antara manusia dan hewan?

Apakah manusia? Tidak selalu. Bagaimana jika manusia memiliki senjata? Bagaimana jika hewan itu memiliki gigi besar? Apakah tidak ada konteks?

  • Apakah ukuran manusia atau hewan itu penting?
  • Apakah itu menghitung berapa banyak penumpang yang dimiliki vs orang di depan?
  • Apakah itu "tahu" ketika bayi / anak-anak di kapal?
  • Apakah itu memperhitungkan usia (mis. Membunuh yang lebih tua dulu)?

Manusia tidak bisa menyetujui hal-hal ini. Jika Anda bertanya kepada polisi apa yang harus dilakukan dalam situasi ini, jawabannya tidak akan, "Anda harus berbelok ke kiri, menimbang semua pihak yang relevan di kepala Anda, menilai usia yang relevan di antara semua pihak, lalu berbelok sedikit ke kanan, dan Anda akan menyelamatkan 8% lebih banyak nyawa. " Tidak, polisi hanya akan berkata, "Anda seharusnya menghentikan kendaraan, secepat dan seaman mungkin." Mengapa? Karena polisi tahu orang-orang biasanya tidak diperlengkapi untuk menghadapi skenario kecelakaan berkecepatan tinggi.

Target kita untuk "mobil yang bisa menyetir sendiri" seharusnya tidak menjadi 'agen moral yang setara dengan manusia.' Seharusnya agen dengan kompleksitas kecoa reaktif, yang gagal diprediksi.

Doxosophoi
sumber
Dalam sebagian besar skenario itu, orang-orang yang berpotensi terbunuh lebih karena kerusakan daripada mobil / penghuni mobil - membanting rem sepertinya satu-satunya respons yang masuk akal karena penghuninya juga tidak mungkin menghindari kecelakaan itu. Seperti yang Anda tunjukkan, sangat mungkin untuk menggunakan algoritme yang berperilaku dengan (berpotensi) membunuh penghuni sebagai ganti pejalan kaki sebagai cara untuk benar-benar membunuh penghuninya, bahkan berpotensi menyalahkan pemilik, mobil, atau pabrikan.
Clearer
48

Jawaban atas banyak pertanyaan itu tergantung pada bagaimana perangkat diprogram. Komputer yang mampu berkeliling dan mengenali jalan yang dilaluinya cenderung memiliki kemampuan untuk membedakan manusia dari binatang secara visual, apakah itu berdasarkan garis besar, gambar, atau ukuran. Dengan pengenalan gambar yang cukup tajam, mungkin bisa menghitung jumlah dan jenis orang di kendaraan lain. Bahkan bisa menggunakan data yang ada tentang kemungkinan cedera pada orang di berbagai jenis kendaraan.

Pada akhirnya, orang tidak setuju pada pilihan etis yang terlibat. Mungkin ada "pengaturan etika" untuk dikonfigurasikan oleh pengguna / pemilik, seperti "anggap saja hitungan kehidupan" vs. "kehidupan yang lebih muda lebih berharga." Saya pribadi akan berpikir itu tidak terlalu kontroversial bahwa mesin harus merusak dirinya sendiri sebelum membahayakan manusia, tetapi orang tidak setuju tentang betapa pentingnya kehidupan hewan peliharaan. Jika pengaturan kill-this-first eksplisit membuat orang tidak nyaman, jawabannya dapat ditentukan dari kuesioner yang diberikan kepada pengguna.

Ben N
sumber
2
Sesuatu di bagian terdalam pikiran saya berpikir bahwa pengaturan etika edit akan menjadi ide yang buruk. Tidak benar-benar yakin apa itu selain fakta bahwa itu adalah mesin alih-alih orang, tetapi saya selalu sampai pada kesimpulan bahwa kita sudah memiliki kontrak tidak tertulis untuk berlangganan keputusan etis seseorang setiap kali kita berada di mobil bersama orang lain.
Ian
6
'pengaturan etika'? Benarkah? Anda akan memiliki orang-orang yang menetapkannya berdasarkan prasangka yang mungkin 'Bunuh orang yang paling terlihat ____' Homoseksual? Perlombaan Favorit Paling Leak? Atau bagaimana jika dua kendaraan dalam driver tabrakan memiliki etika yang bertentangan? Kemudian keduanya dieksekusi dan ada tambahan kerusakan tambahan? Undang-undang ini harus bersifat universal (paling tidak di suatu negara), seperti halnya hukum jalan.
navigator_
3
@navigator_ Saya berharap opsi yang disediakan oleh pabrikan akan masuk akal.
Ben N
1
Alasan seperti yang didefinisikan oleh siapa? Itu maksud saya.
navigator_
3
Saya benar-benar berpikir "pengaturan etika" adalah satu-satunya pilihan yang layak / adil, karena meniru driver spesifik sedekat mungkin. Pengemudi mobil kemudian harus bertanggung jawab atas apa pun yang terjadi sebagai akibatnya, seolah-olah dia sedang mengemudi. Saya tidak melihat bagaimana memprogram sebuah mobil (misalnya) menempatkan kehidupan pengemudi sebelum hal lain berbeda dari pengemudi menempatkan hidupnya di atas hal lain.
Pandora
26

Secara pribadi, saya pikir ini mungkin masalah overhyped. Masalah troli hanya terjadi ketika situasi dioptimalkan untuk mencegah "opsi ke-3".

Mobil punya rem, bukan? "Tapi bagaimana kalau remnya tidak berfungsi?" Nah, maka mobil tidak diperbolehkan mengemudi sama sekali. Bahkan dalam lalu lintas reguler, operator manusia diajari bahwa kecepatan Anda harus dibatasi sehingga Anda dapat berhenti di area yang dapat Anda lihat. Solusi seperti ini akan mengurangi kemungkinan masalah troli.

Adapun hewan ... jika tidak ada upaya eksplisit untuk berurusan dengan manusia di jalan saya pikir hewan akan diperlakukan sama. Ini kedengarannya tidak masuk akal - roadkill sering terjadi dan "roadkill" manusia tidak diinginkan, tetapi hewan jauh lebih kecil dan lebih sulit dilihat daripada manusia, jadi saya pikir mendeteksi manusia akan lebih mudah, mencegah banyak kecelakaan.

Dalam kasus lain (bug, kesalahan saat mengemudi, beberapa kegagalan bertumpuk satu sama lain), mungkin kecelakaan akan terjadi, mereka akan dianalisis, dan kendaraan akan diperbarui untuk menghindari menyebabkan situasi yang serupa.

Pimgd
sumber
Adalah salah untuk mengatakan bahwa AI hanya akan mengemudi begitu cepat karena mereka dapat berhenti dari apa yang mereka lihat, karena hal yang sama berlaku bahkan untuk mengemudi manusia defensif. Alasannya adalah bahwa asumsi HARUS dibuat. Ketika mendaki bukit, diasumsikan bahwa hambatan besar tidak langsung hilang [Sumber DARPA Grand Challenge]. Asumsi ini didasarkan pada aturan jalan untuk menentukan tindakan mana yang benar. Dengan demikian, jika terjadi kecelakaan, selama Anda mengikuti aturan jalan, Anda bisa mengurangi tanggung jawab Anda. Jadi, mobil harus dapat membuat keputusan ini, tetapi mungkin secara terbatas (melindungi konsumen).
Harrichael
12

Ini adalah Masalah Trolley yang terkenal . Seperti yang dikatakan Ben N , orang tidak sependapat mengenai tindakan yang tepat untuk skenario masalah troli, tetapi harus dicatat bahwa dengan mobil self-driving, keandalannya sangat tinggi sehingga skenario ini benar-benar tidak mungkin. Jadi, tidak banyak usaha akan dimasukkan ke dalam masalah yang Anda gambarkan, setidaknya dalam jangka pendek.

Keras
sumber
Saya ingin tahu seberapa bagus masalah Trolley sebenarnya untuk ini? Masalah troli pada dasarnya adalah diskrit, menggambarkan pilihan `sekali dan untuk semua ', sedangkan dalam praktiknya algoritma harus membuat urutan pilihan pada penambahan waktu (berpotensi cukup kecil), mungkin dengan informasi baru yang tersedia. Algoritme yang berguna cenderung menjadi masalah 'kontrol kontinu' yang tertanam dalam ruang 3D aktual, berurusan dengan kecepatan dan probabilitas, bukan keputusan moral yang abstrak dan diskrit. Jika tidak ada yang lain, ini berarti implementasi tidak harus didefinisikan dalam istilah moral yang jelas.
NietzscheanAI
1
@NietzscheanAI Gagasan tentang masalah troli bukan pada keputusan apa yang harus diambil, tetapi apa yang harus Anda ambil keputusan. Jika Anda mempertimbangkan pencurian, jumlah orang, jumlah hewan, yang bersalah, keselamatan pengemudi, barang yang lebih baik, paling tidak berubah, dll. Anda masih dapat menerapkan probabilitas untuk masalah troli, yaitu. rute A memiliki peluang 30 persen untuk membunuh 10 orang. Masalah troli biasanya melibatkan dua rute sehingga Anda dapat mempertimbangkan faktor-faktor apa yang mendasari keputusan etis Anda secara lebih tepat.
Harrichael
11

Di dunia nyata, keputusan akan dibuat berdasarkan pada hukum, dan sebagaimana dicatat oleh Law.SE , hukum umumnya lebih memilih tidak bertindak daripada tindakan.

Menandai
sumber
Ah, itu masuk akal bagi korban manusia. Apakah pilihan hukum akan berbeda jika mobil bisa berbelok untuk menabrak anjing, bukan pejalan kaki?
Ben N
6

Untuk mobil tanpa pengemudi yang dirancang oleh satu entitas, cara terbaik untuk membuat keputusan tentang siapa yang akan dibunuh adalah dengan memperkirakan dan meminimalkan kemungkinan pertanggungjawaban.

Tidak perlu benar-benar mengidentifikasi semua calon korban di daerah untuk memiliki pembelaan atas keputusannya, hanya untuk mengidentifikasi mereka dan juga manusia yang diharapkan.

Bahkan tidak perlu mengetahui usia dan kondisi fisik setiap orang di dalam mobil, karena dapat meminta informasi itu dan jika ditolak, memiliki pembelaan bahwa penumpang memilih untuk tidak menyediakannya, dan oleh karena itu mengambil tanggung jawab untuk merampasnya dari kemampuan untuk membuat keputusan yang lebih baik.

Itu hanya harus memiliki model yang layak untuk meminimalkan eksposur entitas terhadap tuntutan hukum, yang kemudian dapat ditingkatkan dari waktu ke waktu untuk membuatnya lebih menguntungkan.

dynrepsys
sumber
6

"Pertanyaan moral tentang siapa yang harus diselamatkan: 99 persen dari pekerjaan teknik kami adalah untuk mencegah situasi ini terjadi sama sekali." -Christoph von Hugo, Mercedes-Benz

Kutipan ini dari sebuah artikel berjudul Self-Driving Mercedes-Benzes Akan Mengutamakan Keselamatan Penghuni di atas Pejalan Kaki yang diterbitkan OKTOBER 7, 2016 OLEH MICHAEL TAYLOR , diambil 08 Nov 2016.

Berikut adalah kutipan yang menguraikan solusi teknologi dan praktis untuk masalah tersebut.

Pembuat mobil tertua di dunia tidak lagi melihat masalah, mirip dengan pertanyaan dari tahun 1967 yang dikenal sebagai Masalah Troli, sebagai masalah yang tidak bisa dijawab. Alih-alih mengikat diri ke dalam simpul moral dan etika dalam krisis, Mercedes-Benz hanya bermaksud untuk memprogram mobil self-driving untuk menyelamatkan orang-orang di dalam mobil. Setiap saat.

Semua mobil otonom Mercedes-Benz Level 4 dan Level 5 masa depan akan memprioritaskan penyelamatan orang yang mereka bawa, menurut Christoph von Hugo, manajer sistem bantuan pengemudi mobil dan keselamatan aktif.

Artikel di sana juga memuat paragraf menarik berikut.

Sebuah studi yang dirilis pada pertengahan tahun oleh majalah Science juga tidak membersihkan udara. Mayoritas 1928 orang yang disurvei berpikir akan lebih baik secara etis bagi mobil otonom untuk mengorbankan penghuninya daripada menabrak pejalan kaki. Namun mayoritas juga mengatakan mereka tidak akan membeli mobil otonom jika mobil lebih mengutamakan keselamatan pejalan kaki.

tymtam
sumber
3

Sejujurnya saya pikir masalah ini (Masalah Trolley) pada dasarnya terlalu rumit, karena solusi dunia nyata mungkin cukup mudah. Seperti pengemudi manusia, pengemudi AI akan diprogram untuk bertindak setiap saat dengan cara yang etis secara umum, selalu memilih tindakan yang tidak membahayakan, atau paling tidak membahayakan.

Jika seorang pengemudi AI menghadapi bahaya seperti kerusakan properti yang akan terjadi, jelas AI akan mengerem keras dan mengarahkan mobil menjauh dari benda yang mudah pecah untuk menghindari atau meminimalkan dampak. Jika bahayanya menabrak pejalan kaki atau mobil atau bangunan, ia akan memilih untuk bertabrakan dengan benda yang paling tidak berharga atau mahal, untuk melakukan yang paling tidak membahayakan - menempatkan nilai yang lebih tinggi pada manusia daripada bangunan atau anjing.

Akhirnya, jika pilihan pengemudi AI mobil Anda adalah menabrak anak atau menabrak dinding ... itu akan mengarahkan mobil, dan Anda , ke dinding. Itulah yang dilakukan manusia baik mana pun. Mengapa AI yang baik bertindak berbeda?

Randy
sumber
1
'AI akan mengerem keras', 'ia akan memilih untuk bertabrakan dengan ...', jika ini adalah pernyataan, dapatkah Anda memposting beberapa referensi? Atau mereka berdasarkan opini?
kenorb
1
OP mengajukan pertanyaan sebagai, "Kerusakan apa yang akan dipilih AI untuk ditimbulkan?". Saya pikir itu adalah tujuan yang salah. Manusia tidak melakukan itu. Sebaliknya AI akan mengikuti strategi yang lebih umum untuk menghindari kerusakan, dan melakukan kerusakan sesedikit mungkin. Tujuan pengoptimalan ini lebih intuitif dan lebih sulit untuk dibantah ketika timbul masalah pertanggungjawaban.
Randy
3

Seharusnya tidak. Orang seharusnya.

Orang tidak dapat menyerahkan tanggung jawab keputusan etis ke tangan komputer. Merupakan tanggung jawab kami sebagai ilmuwan komputer / pakar AI untuk memprogram keputusan yang akan dibuat komputer. Akankah korban manusia masih ada dari ini? Tentu saja, mereka akan --- orang tidak sempurna dan tidak ada program.

Ada perdebatan mendalam yang sangat baik tentang topik ini di sini . Saya terutama menyukai argumen Yann LeCun mengenai dilema etis paralel dari pengujian obat yang berpotensi mematikan pada pasien. Mirip dengan mobil self-driving, keduanya bisa mematikan sementara memiliki niat baik menyelamatkan lebih banyak orang dalam jangka panjang.

Charles
sumber
3

Bagaimana mobil self-driving dapat membuat keputusan etis tentang siapa yang harus dibunuh?

Dengan mengelola tanggung jawab hukum dan keselamatan konsumen.

Mobil yang menawarkan keamanan konsumen akan menjadi mobil yang dibeli oleh konsumen tersebut. Perusahaan tidak ingin bertanggung jawab atas pembunuhan pelanggan mereka atau ingin menjual produk yang membuat pengguna dalam kesulitan hukum. Tanggung jawab hukum dan keselamatan konsumen adalah masalah yang sama ketika dilihat dari perspektif "biaya untuk konsumen".

Dan inilah beberapa dilema:

  • Apakah algoritme mengenali perbedaan antara manusia dan hewan?

Jika seekor binatang / manusia tidak dapat dihindari secara hukum (dan mobil itu dalam hak yang sah - jika tidak maka ada sesuatu yang salah dengan pengambilan keputusan AI), kemungkinan tidak akan. Jika mobil dapat dengan aman menghindari rintangan, AI dapat dilihat untuk membuat keputusan ini, yaitu. berbelok ke jalur lain di jalan raya terbuka. Perhatikan ada penekanan pada tanggung jawab dan keselamatan pengemudi.

  • Apakah ukuran manusia atau hewan itu penting?

Hanya faktor risiko dari menghantam rintangan. Memukul kuda nil mungkin kurang diinginkan daripada memukul parit. Memukul anjing sepertinya lebih diinginkan daripada merusak mobil pelanggan.

  • Apakah itu menghitung berapa banyak penumpang yang dimiliki vs orang di depan?

Orang-orang dianggap sebagai penumpang untuk melihat apakah jalur penyatuan mobil dapat diambil. Ini menghitung orang di depan sebagai faktor risiko jika terjadi tabrakan.

  • Apakah itu "tahu" ketika bayi / anak-anak di kapal?

Tidak.

  • Apakah itu memperhitungkan usia (mis. Membunuh yang lebih tua dulu)?

Tidak. Ini hanyalah abstraksi yang salah untuk membuat keputusan, bagaimana hal ini dapat dipertimbangkan untuk memilih tindakan yang tepat untuk mengurangi faktor risiko? Jika Opsi 1 dihantam pria muda dengan 20% kemungkinan kerusakan penghuni yang signifikan dan tidak ada tanggung jawab hukum dan Opsi 2 ditabrak orang tua dengan 21% kemungkinan kerusakan penumpang yang signifikan dan tidak ada pertanggungjawaban hukum, maka apa yang dapat meyakinkan filsuf bahkan hanya 1 orang saja. bobot yang adil dan merata untuk membuat keputusan?

Untungnya, keputusan terbaik banyak waktu adalah untuk mencapai jeda waktu untuk mengurangi kecepatan (terutama ketika Anda menganggap bahwa sering kali berharga untuk bertindak seperti yang diperkirakan sehingga pejalan kaki dan pengendara motor dapat bereaksi sesuai). Sementara itu, peningkatan nilai yang lebih baik dapat dibuat dalam hal memprediksi kapan pengemudi akan membuat keputusan yang buruk dan ketika tindakan lain (seperti memukul mundur) lebih menguntungkan daripada memukul istirahat. Pada titik ini, bahkan tidak layak untuk mulai mengumpulkan informasi untuk membuat keputusan etis yang diajukan oleh para filsuf. Dengan demikian, masalah ini terlalu dibesar-besarkan oleh jurnalis dan filsuf sensasional.

Harrichael
sumber
2

Saya pikir dalam kebanyakan kasus mobil akan default untuk mengurangi kecepatan sebagai pilihan utama, daripada mengarahkan ke atau menjauh dari pilihan tertentu. Seperti yang disebutkan orang lain, memiliki pengaturan yang terkait dengan etika hanyalah ide yang buruk. Apa yang terjadi jika dua mobil yang diprogram dengan pengaturan etika yang berlawanan dan akan bertabrakan? Mobil-mobil berpotensi memiliki sistem untuk menimpa pengaturan pengguna dan memilih solusi yang paling saling menguntungkan. Ini memang konsep yang menarik, dan pasti harus didiskusikan dan distandarkan sebelum implementasi yang luas. Menempatkan keputusan etis di tangan mesin membuat tanggung jawab yang dihasilkan terkadang sulit untuk digambarkan.

imhotraore
sumber
Ya, pengereman untuk menghindari tabrakan akan menjadi solusi terbaik. Sayangnya, dalam beberapa kasus (kasus yang ditanyakan dalam pertanyaan), memukul sesuatu tidak dapat dihindari. Anda sepertinya setuju dengan beberapa jawaban yang ada. Harap perhatikan bahwa kami ingin setiap jawaban dapat berdiri sendiri. Setelah Anda memiliki reputasi yang cukup, Anda akan dapat memilih jawaban yang Anda yakini membantu. Masalah dua mobil yang dikonfigurasi sebaliknya memang menarik; alangkah baiknya jika Anda mengedit jawaban Anda untuk memperluas itu. Terima kasih!
Ben N
Terima kasih banyak atas balasan Anda, saya benar-benar sangat menghargainya dan akan menggunakannya di situs. Saya tidak mengetahui pedoman untuk jawaban.
imhotraore
1

Saya pikir tidak akan ada cara untuk mengedit pengaturan etika di dalam mobil. Tapi, hei, jika ponsel dapat di-root, mengapa tidak mobil? Saya membayangkan akan ada Linux build di masa depan untuk model tertentu yang akan membiarkan Anda melakukan apa pun yang Anda inginkan.

Adapun siapa yang akan membuat keputusan seperti itu, itu akan seperti masalah privasi hari ini. Akan ada tarik ulur selimut oleh penyedia OS (yang akan mencoba untuk mengaturnya ke jumlah minimum orang yang terluka, masing-masing dengan metode sendiri), perusahaan asuransi (yang akan mencoba membuat Anda membayar lebih banyak untuk OS yang secara statistik akan menunjukkan kerusakan mobil Anda lebih mudah), dan produsen mobil (yang ingin Anda menghancurkan mobil Anda sesegera mungkin, sehingga Anda akan membeli yang baru; atau membuat mobil yang memerlukan konyol) jumlah layanan $$$).

Kemudian beberapa pelapor akan keluar dan mengekspos sepotong kode yang memilih untuk membunuh anak-anak daripada orang dewasa - karena akan lebih sulit membedakan mereka dari hewan, dan akan mengambil kesempatan untuk menyelamatkan siapa yang lebih dikenal sebagai manusia. Pabrikan OS akan mendapatkan tamparan dari publik dan sebuah konsensus baru akan ditemukan. Pelapor akan keluar dari perusahaan asuransi dan produsen mobil juga.

Umat ​​manusia akan mengambil wajan panas dan membakar dirinya sendiri dan kemudian belajar mengenakan sarung tangan sebelumnya. Saran saya hanya akan memastikan Anda tidak akan menjadi tangan itu - tinggal jauh dari mereka selama beberapa tahun sampai semua kesalahan awal dibuat.

Stefanio
sumber
1

Satu-satunya pilihan yang masuk akal adalah menggunakan perilaku yang dapat diprediksi. Jadi pada orang-orang di depan skenario mobil: Pertama mobil menginjak rem, pada saat yang sama membunyikan klakson, dan tetap di jalur. Orang-orang kemudian memiliki kesempatan untuk melompat keluar dari jalan menuju nol orang terbunuh. Juga dengan rem penuh (mulai dari 50 km per jam ke nol kurang dari 3 panjang mobil), situasi dampak hampir tidak bisa dibayangkan. Bahkan jika pemberhentian penuh tidak dapat dicapai, kerusakan parah pada pejalan kaki tidak mungkin terjadi.

Skenario lain hanya gila. Jadi jaraknya harus kurang dari 3 panjang mobil, setidaknya 1 panjang mobil yang dibutuhkan untuk kemudi, maka menabrak mobil adalah situasi yang tidak terkendali, dapat menyebabkan pemintalan dan membunuh 11 orang.

Selain mengatakan bahwa saya tidak percaya ada contoh dalam kenyataan di mana ada dilema; solusi dalam kasus-kasus yang tidak biasa ini jika untuk menyesuaikan dengan harapan pihak lawan untuk memungkinkan pihak lain untuk mengurangi situasi juga.

lalala
sumber
Bisakah Anda mencoba untuk pergi melalui jawaban pertama yang diposting oleh Ben. Dan kemudian mencoba untuk mengedit Anda sesuai dengan apa AI semua tentang!
quintumnia
bisakah kamu lebih spesifik? Saya membaca bens jawaban pertama, tetapi gagal melihat bagaimana ini terkait. Bisakah Anda jelaskan 'AI itu tentang apa'?
lalala
Apa yang saya maksudkan di sana adalah untuk memiliki pengetahuan tentang AI. Jadi jawaban Anda mungkin tidak dipilih atau tidak terlihat, Yang Mulia!
quintumnia
@quintumnia Jawaban ini sepertinya baik bagi saya (+1) - hanya melanjutkan tanpa berusaha membelok atau membuat keputusan adalah pilihan yang valid.
Ben N