Makalah Keterbatasan Pembelajaran Jauh dalam Pengaturan Adversarial mengeksplorasi bagaimana jaringan saraf dapat rusak oleh penyerang yang dapat memanipulasi set data yang dilatih oleh jaringan saraf. Penulis bereksperimen dengan jaringan saraf yang dimaksudkan untuk membaca angka tulisan tangan, merusak kemampuan membaca dengan mendistorsi sampel angka tulisan tangan yang dilatih oleh jaringan saraf.
Saya khawatir pelaku jahat mungkin mencoba meretas AI. Sebagai contoh
- Menipu kendaraan otonom untuk salah mengartikan tanda berhenti vs. batas kecepatan.
- Melewati pengenalan wajah, seperti yang untuk ATM.
- Memotong filter spam.
- Analisis sentimen bodoh dari ulasan film, hotel, dll.
- Memotong mesin pendeteksi anomali.
- Memalsukan perintah suara.
- Prediksi pembelajaran pembelajaran berbasis mesin yang keliru.
Apa efek permusuhan yang dapat mengganggu dunia? Bagaimana kita bisa mencegahnya?
Jawaban:
AI rentan dari dua perspektif keamanan seperti yang saya lihat:
Metode klasik mengeksploitasi kesalahan program langsung untuk mencapai semacam eksekusi kode pada mesin yang menjalankan AI atau untuk mengekstrak data.
Tipuan melalui ilusi optik AI yang setara untuk bentuk data tertentu yang dirancang untuk ditangani oleh sistem.
Yang pertama harus dimitigasi dengan cara yang sama seperti perangkat lunak lainnya. Saya tidak yakin apakah AI lebih rentan di bagian depan ini daripada perangkat lunak lain, saya cenderung berpikir bahwa kompleksitasnya mungkin sedikit meningkatkan risikonya.
Yang kedua mungkin lebih baik dimitigasi oleh perbaikan sistem yang cermat seperti yang dicatat dalam beberapa jawaban lain, tetapi juga dengan membuat sistem lebih peka konteks; banyak teknik permusuhan mengandalkan input yang dinilai dalam ruang hampa.
sumber
Programmer vs Programmer
Ini adalah "perang tanpa batas": Programer vs Programmer. Semua hal bisa diretas. Pencegahan terkait dengan tingkat pengetahuan profesional yang bertanggung jawab atas keamanan dan programmer dalam keamanan aplikasi.
mis. Ada beberapa cara untuk mengidentifikasi pengguna yang mencoba mengacaukan metrik yang dihasilkan oleh Analisis Sentimen, tetapi ada beberapa cara untuk menghindari langkah-langkah itu juga. Ini pertarungan yang cukup membosankan.
Agen vs Agen
Hal menarik yang diangkat oleh @DukeZhou adalah evolusi perang ini, melibatkan dua kecerdasan buatan (agen). Dalam hal ini, pertempuran adalah salah satu yang paling luas. Model mana yang paling terlatih, Anda tahu?
Namun, untuk mencapai kesempurnaan dalam masalah kerentanan, kecerdasan buatan atau kecerdasan super buatan melampaui kemampuan untuk mengelak dari manusia. Seolah-olah pengetahuan tentang semua peretasan hingga hari ini sudah ada dalam pikiran agen ini dan dia mulai mengembangkan cara-cara baru untuk mengelak dari sistemnya sendiri dan mengembangkan perlindungan. Kompleks bukan?
Saya percaya sulit untuk memiliki AI yang berpikir: "Apakah manusia akan menggunakan foto alih-alih menempatkan wajahnya untuk diidentifikasi?"
Bagaimana kita bisa mencegahnya
Selalu memiliki manusia yang mengawasi mesin, namun itu tidak akan 100% efektif. Ini mengabaikan kemungkinan bahwa agen dapat memperbaiki modelnya sendiri.
Kesimpulan
Jadi saya pikir skenario bekerja seperti ini: seorang programmer mencoba untuk menghindari validasi AI dan pengembang IA memperoleh pengetahuan melalui log dan tes mencoba untuk membangun model yang lebih cerdas dan lebih aman mencoba untuk mengurangi kemungkinan kegagalan.
sumber
Ada beberapa karya tentang verifikasi AI. Pengukur otomatis dapat membuktikan sifat kekokohan jaringan saraf. Ini berarti bahwa jika input X dari NN terganggu tidak lebih dari pada batas yang diberikan ε (dalam beberapa metrik, misalnya L2), maka NN memberikan jawaban yang sama di atasnya.
Verifier semacam itu dilakukan oleh:
Pendekatan ini dapat membantu untuk memeriksa sifat ketahanan jaringan saraf. Langkah selanjutnya adalah membangun jaringan saraf seperti itu, yang membutuhkan ketahanan. Beberapa makalah di atas mengandung juga metode bagaimana melakukan itu.
Ada beberapa teknik berbeda untuk meningkatkan ketahanan jaringan saraf:
pelatihan permusuhan (lihat misalnya A. Kurakin et al., ICLR 2017 )
distilasi defensif (lihat misalnya N. Papernot et al., SSP 2016 )
Pertahanan MMSTV ( Maudry et al., ICLR 2018 ).
Setidaknya yang terakhir terbukti dapat membuat NN lebih kuat. Lebih banyak literatur dapat ditemukan di sini .
sumber
Saya percaya, tidak ada sistem yang aman, namun saya tidak yakin apakah saya masih bisa mengatakan ini setelah 20-30 tahun pengembangan / evolusi AI. Ngomong-ngomong, ada artikel yang menunjukkan manusia menipu AI (Computer Vision).
https://www.theverge.com/2018/1/3/16844842/ai-computer-vision-trick-adversarial-patches-google
https://spectrum.ieee.org/cars-that-think/transportation/sensors/slight-street-sign-modifications-can-fool-machine-learning-algorithms
sumber
Balikkan pertanyaan Anda sejenak dan pikirkan:
Pada akhirnya, perangkat lunak adalah perangkat lunak dan akan selalu ada masalah bug dan keamanan. AI berisiko terhadap semua masalah yang tidak berisiko pada perangkat lunak AI, karena AI tidak memberinya semacam kekebalan.
Adapun gangguan khusus AI, AI berisiko diberi informasi palsu. Tidak seperti kebanyakan program, fungsi AI ditentukan oleh data yang dikonsumsi.
Sebagai contoh dunia nyata, beberapa tahun yang lalu Microsoft membuat chatbot AI bernama Tay. Orang-orang di Twitter butuh waktu kurang dari 24 jam untuk mengajarkannya untuk mengatakan "Kami akan membangun tembok, dan meksiko akan membayar untuk itu":
(Gambar diambil dari artikel Verge yang ditautkan di bawah, saya tidak mengklaim kredit untuk itu.)
Dan itu hanya puncak gunung es.
Beberapa artikel tentang Tay:
Sekarang bayangkan itu bukan bot obrolan, bayangkan itu adalah bagian penting dari AI dari masa depan di mana AI bertanggung jawab atas hal-hal seperti tidak membunuh penghuni mobil (yaitu mobil yang bisa menyetir sendiri) atau tidak membunuh seorang pasien di meja operasi (yaitu beberapa jenis peralatan bantuan medis).
Memang, orang akan berharap AI seperti itu akan lebih aman dari ancaman seperti itu, tetapi seandainya seseorang memang menemukan cara untuk memberi makan massa AI seperti informasi palsu tanpa diketahui (setelah semua, peretas terbaik tidak meninggalkan jejak), itu benar-benar bisa berarti perbedaan antara hidup dan mati.
Dengan menggunakan contoh mobil yang bisa menyetir sendiri, bayangkan jika data palsu bisa membuat mobil itu berpikir perlu melakukan pemberhentian darurat saat berada di jalan tol. Salah satu aplikasi untuk AI medis adalah keputusan seumur hidup atau mati di UGD, bayangkan jika seorang hacker dapat memberi timbangan yang mendukung keputusan yang salah.
Pada akhirnya skala risiko tergantung pada seberapa tergantung manusia pada AI. Sebagai contoh, jika manusia mengambil keputusan tentang AI dan tidak pernah mempertanyakannya, mereka akan membuka diri terhadap segala macam manipulasi. Namun, jika mereka menggunakan analisis AI hanya sebagai satu bagian dari teka-teki, akan menjadi lebih mudah dikenali ketika AI salah, baik itu melalui cara yang tidak disengaja atau jahat.
Dalam kasus pembuat keputusan medis, jangan hanya percaya AI, lakukan tes fisik dan dapatkan pendapat manusia juga. Jika dua dokter tidak setuju dengan AI, buang diagnosis AI.
Dalam hal mobil, satu kemungkinan adalah memiliki beberapa sistem berlebihan yang pada dasarnya harus 'memberikan suara' tentang apa yang harus dilakukan. Jika sebuah mobil memiliki beberapa AI pada sistem terpisah yang harus memilih tindakan yang harus diambil, seorang peretas harus mengambil lebih dari satu AI untuk mendapatkan kendali atau menyebabkan jalan buntu. Yang penting, jika AI berjalan pada sistem yang berbeda, eksploitasi yang sama yang digunakan pada satu tidak dapat dilakukan pada yang lain, semakin menambah beban kerja peretas.
sumber
Saya setuju dengan Akio bahwa tidak ada sistem yang sepenuhnya aman, tetapi yang perlu diambil adalah sistem AI kurang rentan terhadap serangan ketika dibandingkan dengan sistem lama karena kemampuannya untuk terus meningkat.
Seiring berlalunya waktu, semakin banyak orang akan turun ke lapangan membawa ide-ide baru dan perangkat keras akan meningkat sehingga mereka "AI yang kuat."
sumber
Apakah kecerdasan buatan rentan terhadap peretasan?
petunjuk; jika Anda mengatakan bahwa AI rentan, maka saya tidak setuju dengan Anda di sini dengan pernyataan seperti itu. Kecerdasan buatan dibagi menjadi tiga kategori atau fase yang harus kita lalui yaitu.
kecerdasan sempit buatan
kecerdasan umum buatan
kecerdasan super buatan
Karena itu, sesuai dengan pernyataan Anda; "Aku khawatir pelaku jahat mungkin mencoba meretas AI ....."
diberikan oleh contoh-contoh di badan pesan Anda, kami berada pada tingkat kecerdasan sempit buatan, di mana oleh peretas manusia dapat memutar / kode jahatnya untuk menyerang aplikasi semacam itu, pada tingkat ini. Namun, jika kita melompat langsung ke tingkat akhir Buatan Intelijen; lalu dengan segala cara, seorang manusia tidak dapat menyerang atau meng-hack program perangkat lunak yang sangat cerdas atau agen teknologi yang sangat cerdas. Contohnya; seorang peretas manusia, melakukan satu hal pada satu waktu, tidak ada yang menghentikan kecerdasan buatan yang membagi fokusnya dan melakukan banyak staf secara bersamaan, ini sulit untuk menebak pikiran yang bekerja secara akurat seperti itu
untuk informasi anda
bayangkan saja hidup dalam masyarakat baru yang berteknologi tinggi. Lihatlah tantangan besar dunia maya
Jika Anda melewatkan acara itu, mohon maaf.
sumber
Kecerdasan jenis apa pun rentan terhadap peretasan, baik berbasis DNA atau buatan. Pertama, mari kita tentukan peretasan. Dalam konteks ini, peretasan adalah eksploitasi kelemahan untuk mendapatkan tujuan tertentu yang dapat mencakup status, keuntungan finansial, gangguan bisnis atau pemerintah, informasi yang dapat digunakan untuk pemerasan, keunggulan dalam kesepakatan bisnis atau pemilihan, atau bentuk lain kontrol atau manipulasi.
Berikut adalah contoh strategi peretasan otak dan tujuan bersama mereka. Masing-masing memiliki sistem digital yang setara.
Beberapa khawatir tentang apa yang disebut Singularity, di mana entitas perangkat lunak cerdas mungkin dapat meretas manusia dan struktur sosial mereka untuk mendapatkan tujuan mereka sendiri. Bahwa manusia dapat meretas agen cerdas dari manusia lain adalah kemungkinan lain yang jelas. Saya tidak berpikir data pelatihan adalah satu-satunya titik serangan.
Kemungkinan yang tercantum dalam pertanyaan patut dipertimbangkan, tetapi ini adalah versi daftar saya.
Satu-satunya cara untuk mencegahnya adalah dengan menunggu peristiwa kepunahan global, tetapi mungkin ada cara untuk menguranginya. Sama seperti program setan ditulis untuk menemukan kerentanan dalam sistem UNIX, sistem cerdas dapat dirancang untuk menemukan kerentanan dalam sistem cerdas lainnya. Tentu saja, sama seperti model pemrograman dan sistem informasi konvensional dapat dirancang dengan mempertimbangkan keamanan, mengurangi kerentanan hingga tingkat yang mungkin dari hari pertama, sistem AI dapat dirancang dengan tujuan tersebut dalam pikiran.
Jika Anda mengikuti jalur informasi dari sistem apa pun dan mempertimbangkan cara untuk membaca atau menulis sinyal di titik mana pun di sepanjang jalur, Anda dapat menjaga terlebih dahulu terhadap titik akses tersebut. Jelas, berhati-hati saat memperoleh data yang akan digunakan untuk pelatihan adalah kunci dalam kasus yang disebutkan dalam pertanyaan ini, dan enkripsi yang tepat di sepanjang jalur informasi diperlukan, bersama dengan memastikan bahwa tidak ada akses fisik yang diberikan kepada personel yang tidak berwenang, tetapi saya melihat pertempuran antara langkah-langkah dan penanggulangan yang timbul dari keprihatinan dan peluang ini.
sumber
Ada banyak cara untuk meretas AI. Ketika saya masih kecil saya menemukan cara untuk mengalahkan komputer catur. Saya selalu mengikuti pola yang sama, begitu Anda tahu Anda bisa memanfaatkannya. Peretas terbaik dunia adalah seorang anak berusia 4 tahun yang menginginkan sesuatu ia akan mencoba hal-hal yang berbeda sampai ia menetapkan pola pada orang tuanya. Pokoknya, Dapatkan Ai untuk mempelajari pola AI dan diberi kombinasi yang diberikan Anda dapat mengetahui hasilnya. Ada juga kelemahan atau pintu belakang dalam kode baik sengaja atau tidak sengaja. Ada juga kemungkinan AI akan meretas dirinya sendiri. Ini disebut nakal, ingat anak kecil lagi ...
Cara sederhana BTW adalah membuat AI selalu gagal aman ... sesuatu yang orang lupa.
sumber