Saya seorang mahasiswa PhD di bidang ilmu komputer, dan saat ini menciptakan tinjauan umum canggih dalam aplikasi yang dilakukan dalam Etika Mesin (bidang multidisiplin yang menggabungkan filsafat dan AI, yang berupaya menciptakan program atau agen etis eksplisit). Tampaknya lapangan sebagian besar berisi argumen teoretis dan implementasi yang relatif sedikit, meskipun ada banyak orang dengan latar belakang teknis di lapangan.
Saya mengerti bahwa karena etika terlibat, tidak ada kebenaran dasar dan karena itu bagian dari filosofi seseorang dapat tersesat dalam berdebat tentang jenis etika mana yang harus dilaksanakan dan bagaimana ini dapat dilakukan dengan sebaik-baiknya. Namun, dalam ilmu komputer, biasanya bahkan mencoba implementasi sederhana untuk menunjukkan kemungkinan atau keterbatasan pendekatan Anda.
Apa alasan yang mungkin ada begitu sedikit yang dilakukan dalam menerapkan etika secara eksplisit dalam AI dan bereksperimen dengannya?
sumber
Jawaban:
Ini tentu jawaban tingkat tinggi, dan sangat spekulatif, tetapi saya telah memikirkan pertanyaan ini, dan inilah pemikiran saya:
Setelah kegagalan Russell & Whitehead yang terkenal, dan teorema ketidaklengkapan Gödel, ini tampaknya menjadi masalah.
Jadi, Anda melihatnya di mobil self-driving karena para insinyur tidak punya pilihan selain bergulat dengan masalah. Sebaliknya, saya tidak berpikir Anda akan melihat banyak perusahaan perdagangan algoritmik saham, di mana bisnis adalah efisiensi Pareto , khawatir tentang etika atau dampak sosial dari spekulasi keuangan. (Solusi untuk "flash crashes" tampaknya telah menjadi aturan untuk penangguhan sementara perdagangan, alih-alih mengatasi nilai sosial dari perdagangan algoritmik frekuensi tinggi.) Contoh yang lebih jelas adalah perusahaan media sosial mengabaikan jumlah penyalahgunaan informasi yang berlebihan (disinformasi) dan informasi yang salah) diposting di situs mereka, memohon ketidaktahuan, yang sangat mencurigakan bahwa kegiatan yang dihasilkan oleh penyalahgunaan informasi secara positif memengaruhi laba mereka.
Arahan utama perusahaan adalah mengembalikan laba kepada investor. Bukan hal yang aneh bagi perusahaan untuk melanggar hukum ketika denda dan hukumannya diharapkan lebih kecil dari keuntungan yang diperoleh dari aktivitas ilegal. (Ada konsep etika dalam bisnis, tetapi budaya pada umumnya tampaknya menilai orang dan perusahaan berdasarkan berapa banyak uang yang mereka hasilkan, terlepas dari caranya.)
Jika kecerdasan super berevolusi dan menghapus kemanusiaan (karena beberapa orang yang sangat pintar dengan keterampilan matematika unggul memperingatkan kita,) perasaan saya adalah bahwa itu akan menjadi fungsi alam, di mana evolusi yang tidak dibatasi dari algoritma ini adalah karena penggerak ekonomi yang berfokus pada hiper automata partisan dalam industri seperti spekulasi keuangan dan perang otonom. Intinya, mengejar keuntungan dengan segala cara, apa pun dampaknya.
sumber
Saya merasa bagian dari masalah mengapa ada sangat sedikit di jalan implementasi etika teknologi AI / ML, hanya karena tidak ada kebutuhan atau aplikasi yang tepat dari kerangka kerja teoritis.
Maksud saya, tidak ada cara substansial kita dapat menerapkan pemahaman ini untuk algoritma dan model yang tidak dapat berinteraksi dengan cara yang bermakna. Kami memiliki kerangka teoretis yang besar tentang keselamatan / etika AI karena sangat penting. Kita perlu membuat pedoman yang aman untuk menerapkan AI yang kuat sebelum dibuat.
Beberapa makalah yang sangat fokus telah mulai mempersempit masalah dalam menciptakan sistem AI yang etis / aman. Lihat Masalah Beton dalam Keamanan AI
sumber
Dengan metode imitasi, perilaku yang paling tepat dapat diintegrasikan ke dalam kecerdasan buatan. Kecerdasan buatan dapat dibentuk kembali ketika posisi etis berubah. Ini digunakan untuk tujuan ideologis atau untuk mengumpulkan informasi. Tidak jelas apa robot itu.
sumber
Kita dapat mengambil model kesalahan ke akuntan. Mengenali bias dan varians di antara kinerja di bawah jaringan saraf bisa menjadi langkah pertama. Dan kemudian kita dapat mendiskusikan apakah kinerja seperti itu diperbolehkan. Sejauh yang kami tahu, praktik etnik membutuhkan studi empiris dan lapangan. kita tidak bisa begitu saja mengambil alasan dan esai kertas untuk menentukan apakah perbuatan mesin yang dipelajari salah atau tidak. Lebih lanjut dapat dibagi menjadi kecelakaan, kesalahan, atau bahkan bug yang dibuat dari pengembang.
sumber
Secara intuitif, tampaknya ada sedikit penelitian tentang penerapan etika AI karena:
Masyarakat secara keseluruhan tampaknya setuju dengan nyaman bahwa keadaan kecerdasan mesin saat ini tidak cukup kuat untuk dianggap sebagai sadar atau hidup. Jadi kita tidak perlu memberikannya hak etis (belum).
Implementasi perilaku etis ke dalam suatu program membutuhkan metode agar komputer mampu menafsirkan "makna", yang kita belum tahu bagaimana melakukannya.
sumber