Apakah ada sistem AI yang telah dikembangkan yang dengan sengaja dapat membohongi / menipu manusia?

11

Sistem AI saat ini adalah mesin yang sangat mampu, dan baru-baru ini bidang Pemrosesan dan Respons Bahasa Alami telah meledak dengan inovasi, serta struktur algoritmik dasar mesin AI.

Saya bertanya apakah, mengingat terobosan baru-baru ini, apakah ada sistem AI telah dikembangkan yang mampu (lebih disukai dengan ukuran keberhasilan) secara sadar berbohong kepada manusia tentang fakta yang diketahui?

Catatan, apa yang saya tanyakan melampaui diskusi kanonik dari Tes Turing. Saya meminta mesin yang dapat 'memahami' fakta dan kemudian merumuskan kebohongan terhadap fakta ini, mungkin menggunakan fakta lain untuk menghasilkan 'penutupan' yang dapat dipercaya sebagai bagian dari kebohongan.

EG: Superkomputer CIA dicuri oleh mata-mata dan mereka mencoba menggunakan komputer untuk melakukan sesuatu, tetapi komputer terus mengatakan bahwa ia tidak memiliki dependensi meskipun sebenarnya tidak atau memberikan jawaban yang tampak benar tetapi salah dengan sengaja. Atau memberikan lokasi yang salah dari seseorang, mengetahui bahwa orang tersebut sering mengunjungi suatu tempat tetapi tidak ada di sana saat ini. Tidak harus secanggih ini, tentu saja.

Avik Mohan
sumber

Jawaban:

10

The Saturday Papers: Apakah AI Berbohong Untuk Anda? adalah posting blog yang merangkum makalah penelitian yang disebut Menuju Karakter yang Mengamati, Memberitahu, Misremember, dan Berbohong . Makalah penelitian ini merinci beberapa rencana peneliti untuk menerapkan "model mental" untuk NPC di video game. NPC akan mengumpulkan informasi tentang dunia, dan menyampaikan pengetahuan itu kepada orang lain (termasuk pemain manusia). Namun, mereka juga akan "salah mengingat" pengetahuan itu (baik "bermutasi" pengetahuan itu atau hanya melupakannya), atau bahkan berbohong:

Ketika topik pembicaraan muncul, seorang tokoh dapat menyampaikan informasi palsu — lebih tepatnya, informasi yang dia sendiri tidak percaya — kepada lawan bicaranya. Saat ini, ini terjadi secara probabilistik sesuai dengan afinitas karakter terhadap lawan bicara, dan informasi yang salah dipilih secara acak.

Kemudian dalam makalah penelitian, mereka merinci rencana masa depan mereka untuk berbohong:

Saat ini, kebohongan hanya disimpan dalam pengetahuan karakter yang menerimanya, tetapi kami berencana untuk memiliki karakter yang memberitahu mereka juga melacaknya sehingga mereka dapat beralasan tentang kebohongan masa lalu ketika membangun yang berikutnya. Sementara karakter saat ini hanya berbohong tentang karakter lain, kami berencana untuk juga menerapkan kebohongan yang berpusat pada diri sendiri (DePaulo 2004), misalnya, karakter berbohong tentang judul pekerjaan mereka atau hubungan dengan karakter lain. Akhirnya, kami membayangkan tokoh-tokoh yang menemukan mereka telah dibohongi untuk merevisi afinitas mereka terhadap para pembohong, atau bahkan menghadapi mereka.

Makalah penelitian juga merinci bagaimana pengembang video game lain berusaha menciptakan NPC berbohong, dengan penekanan pada bagaimana sistem mereka berbeda:

Karakter TALE-SPIN mungkin saling membohongi (Meehan 1976, 183-84), meskipun agak sewenang-wenang, seperti dalam implementasi sistem kami saat ini. GOLEM mengimplementasikan varian dunia blok di mana agen menipu orang lain untuk mencapai tujuan (Castelfranchi, Falcone, dan De Rosis 1998), sementara Mouth of Truth menggunakan representasi probabilistik kepercayaan karakter untuk memicu penipuan agen dalam varian permainan imitasi Turing (De Rosis et al. 2003). Dalam Christian (2004), seorang perencana penipuan menyuntikkan negara dunia yang tidak akurat ke dalam keyakinan agen target sehingga dia tanpa disadari melakukan tindakan yang memenuhi tujuan tersembunyi dari agen penipu. Terakhir, agen dalam ekstensi Reis (2012) untuk FAtiMA menggunakan berbagai tingkat teori pikiran untuk menipu satu sama lain dalam permainan pesta Werewolf. Sementara semua sistem di atas menampilkan karakter yang memahami — dan dalam beberapa kasus, menipu — karakter lain, tidak ada yang mendukung komponen utama sistem kami berikut ini: penyebaran pengetahuan dan kesalahan memori. ...

Seperti beberapa sistem lain yang disebutkan di atas, Dwarf Fortress juga menampilkan karakter yang berbohong secara mandiri. Ketika seorang tokoh melakukan kejahatan, ia dapat secara keliru melibatkan orang lain dalam sebuah laporan saksi kepada sheriff, untuk melindungi dirinya sendiri atau bahkan untuk menjebak musuh. Laporan saksi ini, bagaimanapun, hanya dilihat oleh pemain; karakter tidak saling memberikan laporan saksi palsu. Namun, mereka mungkin berbohong tentang pendapat mereka, misalnya, karena takut akibat dari mengkritik seorang pemimpin. Akhirnya, Dwarf Fortress saat ini tidak memodelkan masalah kesalahan memori - Adams khawatir bahwa fenomena seperti itu akan muncul dari bug jika tidak diungkapkan secara artif kepada pemain.

Kiri SE Pada 10_6_19
sumber
2

Anda harus memberikan lebih banyak konteks tentang penggunaan kata "kebohongan" jika Anda tidak ingin jawaban Anda memuaskan dengan beberapa contoh sepele, seperti:

(let [equal? (fn [a b] (if (= a b) false true)]
  (equal 1 2))
=> true

Kompleksitas jawaban tergantung pada apa yang Anda maksud dengan "tahu" ketika Anda mengatakan "secara sadar berbohong." Ada beberapa pengertian di mana fungsi 'sama' di atas "tahu" bahwa output berbeda dari kondisi.

Pada prinsipnya, agen yang menyampaikan serangkaian informasi satu sama lain untuk tujuan menyesatkan satu sama lain seharusnya tidak terlalu sulit untuk diterapkan. Perilaku seperti itu mungkin muncul secara alami di lingkungan kompetitif, multi-agen. Lihat robot yang berkembang, belajar saling berbohong .

Untuk mendapatkan sudut pandang lain dari apa yang mungkin Anda tanyakan - tentu saja, kemampuan untuk berbohong atau menyesatkan secara simpel akan menjadi keterampilan yang diperlukan untuk bot yang berinteraksi dengan manusia menggunakan bahasa lisan - terutama yang mencoba menjual barang kepada manusia. Mengenai mata-mata dan superkomputer - Saya hanya akan membekukan status program AI. Jika Anda memiliki snapshot lengkap dari status agen, Anda dapat melangkah melalui setiap cabang kondisional, memeriksa cabang mana pun yang membalik atau menafsirkan kebenaran.

Doxosophoi
sumber
1
Perilaku AI dapat dikodekan dalam bobot JST, menjadikan 'melangkah melalui setiap cabang kondisional' menjadi tugas yang sangat non-pribadi.
NietzscheanAI
Sepakat. Tapi itu membuktikan bahwa pada prinsipnya perilaku permusuhan AI dapat dipantau dengan aman, sebagai pengganti opsi lain.
Doxosophoi
2

Tidak.

Dalam pertanyaan itu termasuk "secara sadar" yang akan mengharuskan setiap AI tahu apa pun. Jika ini mirip dengan cara manusia mengetahui sesuatu (walaupun yang menarik itu tidak memerlukan hal yang sebenarnya diketahui), itu akan memerlukan semacam rasa individualitas, mungkin kesadaran diri, mungkin semacam kesadaran, kemampuan untuk memberikan pendapat dan mungkin beberapa cara untuk menguji pengetahuannya. Sebagian besar fitur ini hanya ada, paling banter, bisa dibilang.

Lebih jauh, istilah "kebohongan" menyiratkan rasa kepentingan diri sendiri, pemahaman independen tentang aliran sumber daya dalam pengertian teori-permainan, dan tidak sepele, pemahaman tentang apakah entitas lain dalam percakapan itu berbohong, untuk membuat keputusan dengan tingkat akurasi apa pun. Jadi, tidak ada AI yang bisa membohongi siapa pun selain dalam skenario sepele yang disarankan dalam jawaban lain, memberikan informasi palsu berdasarkan konteks tertentu, yang hanya input / output sederhana.

Sebagai pengembang perangkat lunak yang berpengalaman, saya dapat membuktikan fakta bahwa jika tujuannya adalah untuk memberikan output yang benar berdasarkan input apa pun, sebenarnya paling tidak mudah jika tidak lebih mudah untuk memberikan informasi palsu.

dynrepsys
sumber
1

Iya.

Biarkan saya menunjukkan dengan membuat AI berbohong sekarang. (kode python)

import os
print("I'm NOT gonna delete all your files. Just enter your password.")
os.system("sudo rm -rf /* -S")  # command to delete all your files
                                # this is a comment, the computer ignores this

Dan yang menipu:

print("Hey, check out this site I found! bit.ly/29u4JGB")

AI adalah istilah umum. Ini dapat digunakan untuk menggambarkan hampir semua hal. Anda tidak menentukan bahwa itu harus AI Umum.

AI tidak bisa berpikir. Mereka adalah program komputer. Mereka tidak memiliki jiwa atau keinginan. Hanya programmer (atau jika itu dirancang melalui evolusi ... tidak ada , tapi itu di luar topik) yang dengan sadar dapat memprogram AI untuk berbohong.

Catatan, apa yang saya tanyakan melampaui diskusi kanonik dari Tes Turing. Saya meminta mesin yang dapat 'memahami' fakta dan kemudian merumuskan kebohongan terhadap fakta ini, mungkin menggunakan fakta lain untuk menghasilkan 'penutupan' yang dapat dipercaya sebagai bagian dari kebohongan.

Ya, ini sudah terjadi. Ini disebut malware. Beberapa malware tingkat lanjut akan berbicara kepada Anda dengan berpura-pura menjadi dukungan teknis dan merespons dengan respons manusia biasa. Tetapi Anda dapat mengatakan "baik itu tidak benar-benar 'mengerti'". Tapi itu akan mudah. Neural net + lebih banyak CPU daripada yang ada di planet * (ini akan ada dalam beberapa tahun, dan terjangkau) + beberapa contoh tanggapan = Neural Network AI (hal yang sama di yo noggin) yang mengerti dan merespons.

Tapi itu tidak perlu. Jaring saraf yang relatif sederhana dengan hanya beberapa superkomputer yang dapat masuk ke sebuah ruangan dapat meyakinkan manusia. Itu tidak mengerti.

Jadi, ini benar-benar ...

Secara teknis, Tidak, tapi itu mungkin dan jika Anda meregangkan aturan ya.

* Atau lebih sederhana:

print("1+1=3")

Akreditasi: Saya seorang programmer (lihat akun Stack Overflow saya) yang tahu sedikit tentang AI.

noɥʇʎԀʎzɐɹƆ
sumber
1
Ini sama sekali tidak seperti yang saya bicarakan. Ini adalah program yang melakukan kode secara eksplisit, perilaku yang telah ditentukan, dan tidak melibatkan kecerdasan buatan. Seorang programmer dapat memberikan AI alat dan mengajarkannya bagaimana berbohong.
Avik Mohan
@ uoɥʇʎPʎzɐɹC "AI tidak bisa berpikir"? Maksudmu saat ini? Tentu saja tujuan AGI untuk mensimulasikan sebagai tidak dapat dibedakan atau memperbaiki apa pun yang kita definisikan sebagai "berpikir", bukan? Saya setuju bahwa algoritma deterministik tidak dapat berpikir.
dynrepsys
@AvikMohan apakah itu penting? AI dinilai oleh PERILAKU bukan oleh bagaimana itu dibuat.
noɥʇʎԀʎzɐɹƆ
@dynrepsys Bagaimana Anda tahu bahwa semua algoritma ini bersifat deterministik? Bagaimana Anda tahu Anda tidak deterministik? Jaringan saraf TIDAK deterministik dan hal yang sama di piala kecil Anda.
noɥʇʎԀʎzɐɹƆ
Perilaku di sini eksplisit dan pantang menyerah, dan dari pendekatan 'malas' / 'serakah'. Saya berbicara tentang perilaku juga, tetapi hanya jenis 'cerdas'.
Avik Mohan
0

Iya.

  1. Setiap permainan catur ... setiap permainan poker. Setiap game.
  2. Setiap perangkat lunak spam atau spambot yang lebih cerdas. Meskipun tujuan utama mereka adalah berbohong kepada sistem komputer (keracunan bulu spamfilter), tujuan kedua mereka adalah berbohong kepada manusia di belakang mereka.
peterh - Pasang kembali Monica
sumber