Baru-baru ini ada minat dalam e X plainable A rtificial I ntelligence (XAI). Ini adalah misi XAI sebagaimana dinyatakan pada halaman DARPA -nya :
Program Explainable AI (XAI) bertujuan untuk menciptakan serangkaian teknik pembelajaran mesin yang:
- Menghasilkan model yang lebih dapat dijelaskan, sambil mempertahankan tingkat kinerja pembelajaran yang tinggi (akurasi prediksi); dan
- Memungkinkan pengguna manusia untuk memahami, memercayai secara tepat, dan secara efektif mengelola generasi yang muncul dari mitra yang secara artifisial cerdas.
Artikel New York Times Bisakah AI Diajarkan untuk Menjelaskannya Sendiri? melakukan pekerjaan yang baik dalam menjelaskan kebutuhan XAI dari sudut pandang minat manusia serta memberikan pandangan sekilas tentang teknik yang dikembangkan untuk hal yang sama. Kekuatan di balik gerakan XAI tampaknya pusat sekitar (dan datang?) Konsep hak untuk penjelasan , yaitu, persyaratan bahwa aplikasi AI yang secara signifikan mempengaruhi kehidupan manusia melalui keputusan mereka dapat menjelaskan kepada stakeholders faktor / alasan mengarah untuk keputusan tersebut.
Bagaimana hak atas penjelasan masuk akal, mengingat standar saat ini di mana kita saling bertanggung jawab?
sumber
Jawaban:
Singkatnya, ini cukup masuk akal.
Lebih khusus lagi, membuat AI bertanggung jawab dan bertanggung jawab untuk menjelaskan keputusan tampaknya masuk akal karena
Manusia (DARPA dalam kasus ini) telah memilih untuk membuat, meningkatkan, dan mengembangkan AI dengan uang pembayar pajak. Dalam masyarakat kita juga, kapan pun manusia berkumpul untuk suatu tujuan (pengaturan formal seperti pemerintah atau lainnya), akuntabilitas dan tanggung jawab dipikul dan ditugaskan. Dengan demikian, mengharapkan AI (yang akan mengambil keputusan atas nama kami) untuk menjelaskan keputusan mereka tampaknya hanya perpanjangan alami tentang bagaimana manusia saat ini beroperasi .
Manusia ( umumnya paling tidak) tidak memiliki kekuatan super atau sumber daya untuk mengendalikan dan memanipulasi sisa populasi. Tetapi ketika mereka melakukannya (seperti para pemimpin politik kita ), kita ingin mereka bertanggung jawab.
Dalam kasus yang jarang terjadi, manusia yang kuat menjadi kuat karena hal-hal yang dapat diakses oleh semua orang , sedangkan kekuatan super AI tidak akan begitu. Jadi, peradaban kita akan merasa lebih aman dan dengan demikian kurang aman dengan AI yang tidak menutup pintu saat pertanyaan diajukan.
Manfaat lain AI yang menawarkan penjelasan tentang bagaimana suatu keputusan dicapai
Jauh lebih mudah untuk di-debug dan ditingkatkan pada tahap awal.
Dapat disesuaikan lebih lanjut (dan di sepanjang jalan) untuk memperkuat aspek-aspek tertentu seperti kesejahteraan sosial di atas profitabilitas, dll.
sumber
Di koran, Budak ke Algoritma? Mengapa 'Hak atas Penjelasan' Mungkin Bukan Obat yang Anda Cari , para penulis mengklaim bahwa "hak atas penjelasan" tidak mungkin memberikan obat lengkap untuk kerugian algoritmik karena setidaknya dua alasan
Tidak jelas kapan hak terkait penjelasan dapat dipicu
Penjelasan yang disyaratkan oleh hukum, "informasi yang bermakna tentang logika pemrosesan", mungkin tidak disediakan oleh metode AI saat ini (dapat dijelaskan)
Para penulis kemudian menyimpulkan bahwa "hak atas penjelasan" mengganggu , tetapi bahwa undang-undang lain dari Peraturan Perlindungan Data Umum Uni Eropa, seperti
mungkin mengganti kekurangan dari "hak atas penjelasan".
Untuk menyimpulkan, "hak untuk penjelasan" adalah upaya untuk melindungi warga negara terhadap konsekuensi yang mungkin tidak diinginkan dari penggunaan metode AI. Namun, ini bukan tanpa cacat dan hak yang lebih jelas mungkin perlu diundangkan.
sumber