Bagaimana kecerdasan buatan dapat membahayakan kita?

51

Kita sering mendengar bahwa kecerdasan buatan dapat membahayakan atau bahkan membunuh manusia, jadi itu mungkin terbukti berbahaya.

Bagaimana kecerdasan buatan dapat membahayakan kita?

Manak
sumber
6
Ini agak luas, karena ada banyak alasan dan skenario yang disarankan di mana AI bisa menjadi berbahaya. Misalnya seperti yang disarankan DuttaA di atas, manusia dapat merancang sistem senjata cerdas yang memutuskan apa yang menjadi target, dan ini adalah kekhawatiran nyata karena mungkin sudah menggunakan AI sempit. Mungkin berikan lebih banyak konteks pada ketakutan spesifik yang ingin Anda pahami, dengan mengutip atau menautkan masalah tertentu yang telah Anda baca (silakan gunakan edit ).
Neil Slater
4
@ NeilSlater Ya, mungkin terlalu luas, tapi saya pikir jawaban ini ai.stackexchange.com/a/15462/2444 memberikan beberapa alasan yang masuk akal. Saya mengedit pertanyaan untuk menghapus asumsi yang mungkin salah.
nbro
2
Apakah pertanyaan ini khusus tentang "kecerdasan super" atau AI secara umum? (Misalnya, jika
kecerdasan super
@DukeZhou OP awalnya dan secara eksplisit tidak menyebutkan superintelijen, tapi saya kira dia merujuk pada apa pun yang dapat dianggap AI, termasuk SI.
nbro
3
Pertama, tanyakan bagaimana kecerdasan normal dapat membahayakan Anda? Maka jawabannya adalah sama.
J ...

Jawaban:

47

tl; dr

Ada banyak berlaku alasan mengapa orang mungkin takut (atau lebih baik khawatir tentang ) AI, tidak semua melibatkan robot dan skenario apokaliptik.

Untuk menggambarkan masalah ini dengan lebih baik, saya akan mencoba membaginya menjadi tiga kategori.

Sadar AI

Ini adalah jenis AI yang dirujuk oleh pertanyaan Anda. AI sadar super-cerdas yang akan menghancurkan / memperbudak manusia. Ini sebagian besar dibawa kepada kita oleh fiksi ilmiah. Beberapa contoh terkenal Hollywood adalah "The terminator" , "The Matrix" , "Age of Ultron" . Novel yang paling berpengaruh ditulis oleh Isaac Asimov dan disebut sebagai "seri Robot" (yang meliputi "I, robot" , yang juga diadaptasi sebagai film).

Premis dasar di bawah sebagian besar karya-karya ini adalah bahwa AI akan berkembang ke titik di mana ia menjadi sadar dan akan melampaui manusia dalam kecerdasan. Sementara film-film Hollywood terutama berfokus pada robot dan pertempuran antara mereka dan manusia, tidak cukup penekanan diberikan kepada AI yang sebenarnya (yaitu "otak" mengendalikan mereka). Sebagai catatan, karena narasinya, AI ini biasanya digambarkan sebagai superkomputer yang mengendalikan segalanya (sehingga protagonis memiliki target spesifik). Tidak cukup eksplorasi telah dilakukan pada "kecerdasan ambigu" (yang saya pikir lebih realistis).

Di dunia nyata, AI berfokus pada penyelesaian tugas-tugas khusus! Seorang agen AI yang mampu menyelesaikan masalah dari domain yang berbeda (misalnya memahami pembicaraan dan memproses gambar dan mengemudi dan ... - seperti manusia) disebut sebagai Kecerdasan Buatan Umum dan diperlukan untuk AI yang mampu "berpikir" dan menjadi sadar.

Secara realistis, kita jauh dari General Artificial Intelligence! Yang sedang berkata tidak ada bukti mengapa ini tidak dapat dicapai di masa depan. Jadi saat ini, bahkan jika kita masih dalam masa kanak-kanak, kita tidak punya alasan untuk percaya bahwa AI tidak akan berevolusi ke titik di mana ia lebih cerdas daripada manusia.

Menggunakan AI dengan niat jahat

Meskipun AI yang menaklukkan dunia masih jauh dari terjadi, ada beberapa alasan untuk khawatir dengan AI hari ini , yang tidak melibatkan robot! Kategori kedua yang ingin saya fokuskan sedikit adalah beberapa kegunaan berbahaya dari AI hari ini.

Saya hanya akan fokus pada aplikasi AI yang tersedia hari ini . Beberapa contoh AI yang dapat digunakan untuk maksud jahat:

  • DeepFake : teknik untuk memaksakan wajah seseorang pada gambar video orang lain. Ini telah mendapatkan popularitas baru-baru ini dengan porno selebriti dan dapat digunakan untuk menghasilkan berita palsu dan tipuan. Sumber: 1 , 2 , 3

  • Dengan menggunakan sistem pengawasan massal dan perangkat lunak pengenal wajah yang mampu mengenali jutaan wajah per detik , AI dapat digunakan untuk pengawasan massal. Meskipun ketika kita berpikir tentang pengawasan massal, kita berpikir tentang Cina, banyak kota barat seperti London , Atlanta dan Berlin adalah di antara kota -kota yang paling banyak diawasi di dunia . Tiongkok telah mengambil langkah lebih jauh dengan mengadopsi sistem kredit sosial , sistem evaluasi untuk warga sipil yang tampaknya diambil langsung dari halaman George Orwell 1984.

  • Mempengaruhi orang melalui media sosial . Selain mengenali selera pengguna dengan tujuan pemasaran yang ditargetkan dan menambah penempatan (praktik yang umum dilakukan oleh banyak perusahaan internet), AI dapat digunakan secara sembarangan untuk mempengaruhi pemilihan orang (antara lain). Sumber: 1 , 2 , 3 .

  • Peretasan .

  • Aplikasi militer, mis. Serangan drone, sistem penargetan rudal.

Efek buruk AI

Kategori ini cukup subyektif, tetapi pengembangan AI mungkin membawa beberapa efek samping yang merugikan. Perbedaan antara kategori ini dan yang sebelumnya adalah bahwa efek ini, meskipun berbahaya, tidak dilakukan dengan sengaja; melainkan terjadi dengan perkembangan AI. Beberapa contoh adalah:

  • Pekerjaan menjadi mubazir . Ketika AI menjadi lebih baik, banyak pekerjaan akan digantikan oleh AI. Sayangnya tidak banyak hal yang dapat dilakukan mengenai hal ini, karena sebagian besar perkembangan teknologi memiliki efek samping ini (mis. Mesin pertanian menyebabkan banyak petani kehilangan pekerjaan, otomatisasi menggantikan banyak pekerja pabrik, komputer melakukan hal yang sama).

  • Memperkuat bias dalam data kami . Ini adalah kategori yang sangat menarik, karena AI (dan terutama Neural Networks) hanya sebagus data yang mereka latih dan memiliki kecenderungan melanggengkan dan bahkan meningkatkan berbagai bentuk bias sosial, yang sudah ada dalam data. Ada banyak contoh jaringan yang memperlihatkan perilaku rasis dan seksis. Sumber: 1 , 2 , 3 , 4 .

Djib2011
sumber
4
Saya tidak mengerti mengapa "Pekerjaan menjadi mubazir" adalah masalah serius. Betapa indahnya dunia jika tidak ada seorang pun (atau setidaknya sebagian besar manusia) tidak perlu bekerja dan bisa fokus pada hobi mereka dan menikmati hidup.
kukis
4
@kukis Bagaimana kamu bisa mendapatkan makanan, rumah, dll., tanpa pekerjaan, kecuali kamu sudah kaya? Pekerjaan berarti bertahan hidup bagi kebanyakan orang.
nbro
6
Mengenai pekerjaan menjadi mubazir, sepertinya kita bisa melakukan sesuatu, yaitu mengubah model ekonomi kita untuk tidak bergantung pada manusia yang memiliki pekerjaan. Maksud saya, jika sistem ekonomi kita akan hancur karena dibanjiri dengan banyak tenaga kerja murah, maka mereka jelas cacat. Dan mengingat bahwa kita mengharapkan cacat ini menjadi berbahaya di masa mendatang, itu harus diperbaiki.
Nat
2
Contoh lain di mana AI dapat menyebabkan masalah besar adalah dengan perdagangan saham. Sebagian besar perdagangan saham hari ini dilakukan oleh AI yang semakin kompetitif, yang dapat bereaksi jauh lebih cepat daripada pedagang manusia. Tapi itu sampai pada titik di mana bahkan manusia yang menulisnya tidak perlu memahami alasan AI ini membuat keputusan yang mereka lakukan, dan ada beberapa efek bencana di pasar dari algoritma prediksi stok yang serba salah.
Darrel Hoffman
8
@penelope tidak setiap pekerjaan yang AI coba ganti adalah "bunga rendah". Saya berpendapat bahwa ada banyak pekerjaan dengan permintaan tinggi yang dapat diganti di masa depan (yang tidak terlalu jauh). Beberapa contoh adalah dokter, pedagang, dan pilot. Jika AI terus maju dan terus menjadi lebih baik dalam mendiagnosis penyakit, tidak masuk akal untuk berpikir bahwa pekerjaan dokter akan dikurangi.
Djib2011
14

Jangka pendek

  • Kecelakaan fisik , misalnya karena mesin industri, autopilot pesawat terbang, mobil yang bisa menyetir sendiri. Terutama dalam kasus situasi yang tidak biasa seperti cuaca ekstrem atau kegagalan sensor. Biasanya AI akan berfungsi buruk dalam kondisi di mana ia belum diuji secara luas.
  • Dampak sosial seperti mengurangi ketersediaan pekerjaan, hambatan untuk pekerja yang kurang mampu. pinjaman, asuransi, pembebasan bersyarat.
  • Mesin rekomendasi semakin banyak memanipulasi kita untuk mengubah perilaku kita (dan juga memperkuat gelembung "dunia kecil" kita sendiri). Mesin rekomendasi secara rutin menyajikan konten yang tidak pantas dari berbagai jenis kepada anak kecil, seringkali karena pembuat konten (misalnya di YouTube) menggunakan isian kata kunci yang tepat agar tampak ramah anak.
  • Manipulasi politik ... Cukup berkata, saya kira.
  • Deniabilitas invasi privasi yang masuk akal . Sekarang AI dapat membaca email Anda dan bahkan melakukan panggilan telepon untuk Anda, mudah bagi seseorang untuk membuat manusia bertindak atas informasi pribadi Anda dan mengklaim bahwa mereka punya komputer untuk melakukannya.
  • Mengubah perang menjadi permainan video , yaitu mengganti tentara dengan mesin yang dioperasikan dari jarak jauh oleh seseorang yang tidak dalam bahaya dan jauh dari korbannya.
  • Kurangnya transparansi . Kami mempercayai mesin untuk membuat keputusan dengan sangat sedikit sarana untuk mendapatkan pembenaran di balik keputusan.
  • Konsumsi sumber daya dan polusi. Ini bukan hanya masalah AI, namun setiap peningkatan AI menciptakan lebih banyak permintaan untuk Big Data dan bersama-sama meningkatkan kebutuhan penyimpanan, pemrosesan, dan jaringan. Di atas konsumsi listrik dan mineral langka, infrastruktur perlu dibuang setelah umurnya beberapa tahun.
  • Surveillance - dengan keberadaan smartphone dan perangkat pendengaran di mana-mana, ada tambang emas data tetapi terlalu banyak untuk menyaring setiap bagian. Dapatkan AI untuk menyaringnya, tentu saja!
  • Cybersecurity - penjahat cyber semakin memanfaatkan AI untuk menyerang target mereka.

Apakah saya menyebutkan itu semua ini sudah berjalan lancar?

Jangka panjang

Meskipun tidak ada garis yang jelas antara AI dan AGI, bagian ini lebih lanjut tentang apa yang terjadi ketika kita melangkah lebih jauh ke arah AGI. Saya melihat dua alternatif:

  • Entah kita mengembangkan AGI sebagai hasil dari peningkatan pemahaman kita tentang sifat kecerdasan,
  • atau kita menampar bersama sesuatu yang tampaknya berhasil tetapi kita tidak mengerti dengan baik, seperti banyak pembelajaran mesin saat ini.

Dalam kasus pertama, jika AI "menjadi nakal" kita bisa membangun AI lain untuk mengecoh dan menetralkannya. Dalam kasus kedua, kita tidak bisa, dan kita dikutuk. AI akan menjadi bentuk kehidupan baru dan kita mungkin punah.

Inilah beberapa masalah potensial:

  • Salin dan tempel. Satu masalah dengan AGI adalah bahwa hal itu bisa dibayangkan berjalan pada komputer desktop, yang menciptakan sejumlah masalah:
    • Script Kiddies - orang bisa mengunduh AI dan mengatur parameter dengan cara yang merusak. Terkait,
    • Kelompok kriminal atau teroris akan dapat mengkonfigurasi AI sesuai dengan keinginan mereka. Anda tidak perlu mencari ahli pembuatan bom atau bioweapon jika Anda dapat mengunduh AI, suruh untuk melakukan riset dan kemudian berikan Anda petunjuk langkah demi langkah.
    • Replikasi diri AI - ada banyak permainan komputer tentang ini. AI pecah dan menyebar seperti virus. Semakin banyak kekuatan pemrosesan, semakin baik kemampuannya untuk melindungi dirinya sendiri dan menyebar lebih jauh.
  • Invasi sumber daya komputasi . Sangat mungkin bahwa lebih banyak daya komputasi bermanfaat untuk AI. AI mungkin membeli atau mencuri sumber daya server, atau sumber daya desktop dan perangkat seluler. Secara ekstrem, ini bisa berarti bahwa semua perangkat kita menjadi tidak dapat digunakan yang akan mendatangkan malapetaka di dunia. Ini juga bisa berarti konsumsi listrik yang besar (dan akan sulit untuk "menarik steker" karena pembangkit listrik dikendalikan oleh komputer!)
  • Pabrik otomatis. AGI yang ingin mendapatkan lebih banyak kehadiran fisik di dunia dapat mengambil alih pabrik untuk menghasilkan robot yang dapat membangun pabrik baru dan pada dasarnya membuat badan untuk dirinya sendiri.
  • Ini adalah pertimbangan yang agak filosofis, tetapi beberapa berpendapat bahwa AI akan menghancurkan apa yang membuat kita menjadi manusia:
    • Rendah diri. Bagaimana jika banyak entitas AI lebih pintar, lebih cepat, lebih dapat diandalkan, dan lebih kreatif daripada manusia terbaik?
    • Tidak ada gunanya. Dengan robot menggantikan kebutuhan akan kerja fisik dan AI menggantikan kebutuhan akan kerja intelektual, kita benar-benar tidak akan melakukan apa pun. Tidak ada yang akan mendapatkan Hadiah Nobel lagi karena AI sudah ada di depan. Mengapa bahkan dididik sejak awal?
    • Monokultur / stagnasi - dalam berbagai skenario (seperti satu "diktator baik hati" AGI) masyarakat bisa menjadi tetap dalam pola abadi tanpa ide-ide baru atau perubahan apa pun (menyenangkan meskipun mungkin). Pada dasarnya, Dunia Baru yang Berani.

Saya pikir AGI akan datang dan kita perlu memperhatikan masalah-masalah ini sehingga kita bisa menguranginya.

Artelius
sumber
1
Saya pikir jenis AI yang mampu memprogram ulang pabrik untuk membuat robot untuk dirinya sendiri masih jauh. "AI" modern hanyalah pengenalan pola yang sangat canggih.
user253751
Saya mengatakan "jangka panjang" dan "AGI". AGI, menurut definisi, jauh melampaui pengenalan pola yang canggih. Dan meskipun "pengenalan pola yang canggih" adalah hal yang paling umum digunakan dalam aplikasi dunia nyata, sudah ada banyak pekerjaan di arah lain (terutama masalah dekomposisi / perencanaan tindakan, yang IMO adalah kunci dari jenis skenario ini. )
Artelius
8

Selain jawaban lain, saya ingin menambahkan contoh pabrik kue nuking:

AI pembelajaran mesin pada dasarnya mencoba untuk memenuhi tujuan yang dijelaskan oleh manusia. Misalnya, manusia membuat AI yang menjalankan pabrik kue. Tujuan yang mereka terapkan adalah menjual cookie sebanyak mungkin untuk margin keuntungan tertinggi.

Sekarang, bayangkan AI yang cukup kuat. AI ini akan melihat bahwa jika dia membuat nukes semua pabrik kue lainnya, semua orang harus membeli kue di pabriknya, membuat penjualan meningkat dan keuntungan lebih tinggi.

Jadi, kesalahan manusia di sini adalah tidak memberikan hukuman karena menggunakan kekerasan dalam algoritma. Ini mudah diabaikan karena manusia tidak mengharapkan algoritma untuk sampai pada kesimpulan ini.

Lustwelpintje
sumber
8
Ini mengingatkan saya pada contoh dunia nyata yang saya lihat di reddit ketika seseorang melatih AI untuk menaiki tangga di Unity. Ia menemukan bahwa ia dapat menekan dirinya sendiri ke tanah dengan banyak kekuatan dan fisika akan mengalami kesalahan, menyebabkannya terbang ke udara dan menjadi yang tercepat ke atas.
GammaGames
2
Atau, lebih buruk lagi, itu akan memutuskan bahwa manusia terbuat dari atom yang akan lebih baik digunakan untuk membuat kue.
nick012000
Saya pernah mendengar argumen ini sebelumnya. Salah satu kesalahan dalam memprediksi kiamat AI adalah bahwa kita tidak dapat memprediksi apa yang akan dilakukan AI. Sangat mungkin AI akan mengakui bahwa nuking perusahaan cookie lainnya dapat membuang ekonomi global dan menghancurkan setiap permintaan potensial untuk cookie ... Hukum ekonomi, penawaran, dan permintaan
Zakk Diaz
8

Skenario favorit saya untuk kerugian akibat AI tidak melibatkan kecerdasan tinggi, tetapi kecerdasan rendah. Secara khusus, hipotesis goo abu - abu .

Di sinilah proses otomatis mereplikasi diri menjalankan mengamuk dan mengubah semua sumber daya menjadi salinan itu sendiri.

Intinya di sini adalah bahwa AI tidak "pintar" dalam arti memiliki kecerdasan tinggi atau kecerdasan umum - itu hanya sangat baik dalam satu hal dan memiliki kemampuan untuk mereplikasi secara eksponensial.

DukeZhou
sumber
3
FWIW, manusia sudah goo abu-abu. Kami goo abu-abu egois yang tidak ingin digantikan oleh goo abu-abu yang bahkan lebih efisien.
user253751
1
@immibis Itu tentu saja POV filosofis, bukan fakta. Ada banyak orang yang membedakan antara manusia dan mesin replikasi diri / mandiri. Film zombie tidak akan terlalu sukses jika mayoritas membawa definisi Anda di hati =)
Stian Yttervik
1
@immibis Apakah Anda membaca artikel goo abu - abu di Wikipedia yang referensi ini jawab? Istilah ini mengacu pada mesin tidak cerdas (nano) yang mengamuk, bukan perilaku cerdas. Jadi saya katakan, tidak, manusia bukan (dan AI juga tidak), karena kita tidak makan Albert Einstein ketika kita bisa.
kubanczyk
@kubanczyk arti mendasar dari istilah "kecerdasan" tampaknya disalahpahami secara luas, baik di dunia akademis maupun masyarakat umum. Intelegensi adalah spektrum, umumnya relatif (terhadap mekanisme pengambilan keputusan lainnya), dan didasarkan pada kegunaan keputusan apa pun yang diberikan dalam konteks masalah. Jadi grey goo akan menjadi cerdas, hanya saja kecerdasannya akan terbatas dan sempit.
DukeZhou
5

Saya akan mengatakan ancaman nyata terbesar adalah ketidakseimbangan / pengganggu yang sudah kita lihat. Perubahan menempatkan 90% negara keluar dari pekerjaan adalah nyata, dan hasilnya (yang akan menjadi distribusi kekayaan yang lebih tidak merata) menakutkan jika Anda memikirkannya.

Bill K
sumber
2
Orang-orang mengatakan hal yang sama selama revolusi industri yang membuat sebagian besar pekerjaan pertanian menjadi berlebihan. Meskipun Anda mungkin tidak salah, dan itu adalah sesuatu yang saya khawatirkan secara pribadi, penelitian yang mempelajari tren menunjukkan ini mungkin bukan masalah dan kemungkinan pekerjaan baru akan terbuka.
Programmdude
@Programmdude - Saya pikir ada perbedaan mendasar antara perubahan revolusi industri dan bahkan penghapusan pekerjaan kesekretariatan melalui munculnya P dengan apa yang akan terjadi dalam beberapa dekade mendatang.
Mayo
2
@Programmdude Dan orang-orangnya benar. Revolusi industri memang mengubah segalanya tentang cara orang hidup, itu sangat mengganggu dalam hal distribusi kekayaan dan kemampuan orang untuk hidup dengan pendapatan pertanian. Dari sudut pandang lain: Pemilik budak yang melihat ke belakang dari beberapa ratus tahun ke depan mungkin tidak akan melihat efek AI pada periode ini sebagai mengganggu karena itu membentuk situasi mereka.
Bill K
@ Bill Aku bersamamu sampai bagian tentang pemilik budak. Anda tahu bahwa AI tidak sadar diri, bukan?
Ray
@Ray Aku tidak bermaksud AI, aku berarti orang-orang yang mengendalikan AI (Dan karena itu akan memiliki semua kekayaan), dan benar-benar itu hanya cara untuk menunjukkan bahwa hal-hal yang mungkin sangat berbeda bagi kita tetapi tidak akan ' t merasa berbeda melihat ke belakang.
Bill K
5

Saya punya contoh yang agak berlawanan dengan ketakutan publik, tetapi merupakan hal yang sangat nyata, yang sudah saya lihat terjadi. Ini bukan AI-spesifik, tapi saya pikir itu akan menjadi lebih buruk melalui AI. Ini adalah masalah manusia mempercayai kesimpulan AI secara membabi buta dalam aplikasi kritis.

Kami memiliki banyak bidang di mana para ahli manusia seharusnya membuat keputusan. Ambil contoh obat - haruskah kita memberikan obat X atau obat Y? Situasi yang saya pikirkan sering merupakan masalah yang kompleks (dalam pengertian Cynefin) di mana itu adalah hal yang sangat baik untuk meminta seseorang memperhatikan dengan sangat cermat dan menggunakan banyak keahlian, dan hasilnya benar-benar penting.

Ada permintaan untuk informatika medis untuk menulis sistem pendukung keputusan untuk masalah semacam ini di kedokteran (dan saya kira untuk jenis yang sama di domain lain). Mereka melakukan yang terbaik, tetapi harapannya selalu bahwa seorang ahli manusia akan selalu mempertimbangkan saran sistem hanya sebagai satu pendapat lagi ketika membuat keputusan. Dalam banyak kasus, tidak bertanggung jawab untuk menjanjikan hal lain, mengingat tingkat pengetahuan dan sumber daya yang tersedia untuk pengembang. Contoh tipikal adalah penggunaan penglihatan komputer dalam radiomik: seorang pasien mendapatkan CT scan dan AI harus memproses gambar dan memutuskan apakah pasien memiliki tumor.

Tentu saja AI itu tidak sempurna. Bahkan ketika diukur terhadap standar emas, tidak pernah mencapai akurasi 100%. Dan kemudian ada semua kasus di mana ia berkinerja baik terhadap metrik golnya sendiri, tetapi masalahnya sangat kompleks sehingga metrik gol tidak menangkapnya dengan baik - saya tidak bisa memikirkan contoh dalam konteks CT, tapi saya kira kita melihatnya bahkan di sini di SE, di mana algoritma mendukung popularitas di posting, yang merupakan proksi tidak sempurna untuk kebenaran faktual.

Anda mungkin membaca paragraf terakhir dan mengangguk, "Ya, saya belajar bahwa dalam kursus ML pengantar pertama saya ambil". Tebak apa? Dokter tidak pernah mengambil kursus ML pengantar. Mereka jarang memiliki cukup melek statistik untuk memahami kesimpulan makalah yang muncul di jurnal medis. Ketika mereka berbicara dengan pasien ke-27 mereka, 7 jam dalam 16 jam kerja mereka, lapar dan terkuras secara emosional, dan CT tidak terlihat jelas, tetapi komputer mengatakan "itu bukan keganasan", mereka tidak luangkan sepuluh menit lagi untuk lebih berkonsentrasi pada gambar, atau mencari buku teks, atau berkonsultasi dengan kolega. Mereka hanya mengikuti apa yang dikatakan komputer, bersyukur bahwa beban kognitif mereka tidak meroket lagi. Jadi mereka beralih dari menjadi ahli menjadi orang yang membaca sesuatu dari layar. Lebih buruk, di beberapa rumah sakit pemerintah tidak hanya mempercayai komputer, ia juga telah menemukan bahwa mereka adalah kambing hitam yang nyaman. Jadi, seorang dokter memiliki firasat buruk yang bertentangan dengan output komputer, menjadi sulit bagi mereka untuk bertindak berdasarkan firasat itu dan membela diri bahwa mereka memilih untuk mengesampingkan pendapat AI.

AI adalah alat yang kuat dan berguna, tetapi akan selalu ada tugas di mana mereka tidak dapat mengganti toolwielder.

rumtscho
sumber
Jika Anda mencari lebih banyak contoh, kontroversi seputar penggunaan pembelajaran mesin untuk memprediksi tingkat pengembalian uang pelamar untuk pembebasan bersyarat atau pembebasan bersyarat adalah yang baik. Saya setuju bahwa kita seharusnya tidak mengharapkan dokter dan hakim untuk memiliki tingkat keahlian statistik yang diperlukan untuk memahami AI, selain keahlian medis dan hukum mereka. Perancang AI harus menyadari kesalahan algoritme mereka, dan memberikan panduan yang jelas kepada penggunanya. Mungkin beri tahu dokter di mana harus melihat hasil CT scan daripada langsung memberi mereka hasilnya.
craq
4

Ini hanya bermaksud menjadi pelengkap jawaban lain jadi saya tidak akan membahas kemungkinan AI yang mencoba memperbudak manusia.

Tetapi risiko yang berbeda sudah ada di sini. Saya akan menyebutnya teknologi tanpa perintah . Saya telah diajarkan ilmu pengetahuan dan teknologi, dan IMHO, AI memiliki dengan sendirinya tidak memiliki gagasan tentang yang baik dan yang jahat, atau kebebasan. Tetapi itu dibangun dan digunakan oleh manusia dan karena itu perilaku non-rasional dapat dilibatkan.

Saya akan mulai dengan contoh kehidupan nyata yang lebih terkait dengan IT umum daripada AI. Saya akan berbicara tentang virus atau malwares lainnya. Komputer adalah mesin yang agak bodoh yang bagus untuk memproses data dengan cepat. Jadi kebanyakan orang mengandalkan mereka. Beberapa orang (jahat) mengembangkan malware yang akan mengganggu perilaku komputer yang benar. Dan kita semua tahu bahwa mereka dapat memiliki efek buruk pada organisasi kecil hingga menengah yang tidak siap dengan komputer.

AI berbasis komputer sehingga rentan terhadap serangan tipe komputer. Di sini contoh saya akan menjadi mobil yang digerakkan AI. Teknologi ini hampir siap untuk bekerja. Tapi bayangkan efek malware membuat mobil berusaha menyerang orang lain di jalan. Bahkan tanpa akses langsung ke kode AI, dapat diserang oleh saluran samping . Misalnya menggunakan kamera untuk membaca tanda-tanda sinyal. Tetapi karena cara pembelajaran mesin diimplementasikan, AI umumnya tidak menganalisis adegan seperti halnya manusia. Para peneliti telah menunjukkan bahwa ada kemungkinan untuk mengubah tanda dengan cara yang manusia normal masih akan melihat tanda aslinya, tetapi AI akan melihat yang berbeda. Bayangkan sekarang bahwa tanda itu adalah tanda prioritas jalan ...

Maksud saya adalah bahwa bahkan jika AI tidak memiliki niat jahat, orang jahat dapat mencoba membuatnya berperilaku buruk. Dan untuk tindakan yang lebih penting akan didelegasikan ke AI (obat-obatan, mobil, pesawat, tidak berbicara tentang bom) semakin tinggi risikonya. Mengatakan berbeda, saya tidak benar-benar takut AI untuk dirinya sendiri, tetapi untuk cara itu dapat digunakan oleh manusia.

Serge Ballesta
sumber
3

Saya pikir salah satu risiko yang paling nyata (mis. Terkait dengan AI yang ada saat ini) secara buta bergantung pada AI yang tidak diawasi, karena dua alasan.

1. Sistem AI dapat menurun

Kesalahan fisik dalam sistem AI dapat mulai menghasilkan hasil yang sangat salah di wilayah yang tidak diuji karena sistem fisik mulai memberikan nilai yang salah. Ini kadang-kadang ditebus dengan swa-uji dan redundansi, tetapi sesekali masih membutuhkan pengawasan manusia.

AI belajar mandiri juga memiliki kelemahan perangkat lunak - jaringan bobot atau representasi statistik mereka mungkin mendekati minimum lokal di mana mereka terjebak dengan satu hasil yang salah.

2. Sistem AI bias

Untungnya ini sering dibahas, tetapi perlu disebutkan: klasifikasi input sistem AI sering bias karena dataset pelatihan / pengujian juga bias. Ini menghasilkan AI yang tidak mengenali orang dari etnis tertentu, untuk contoh yang lebih jelas. Namun ada beberapa kasus yang kurang jelas yang hanya dapat ditemukan setelah beberapa kecelakaan buruk, seperti AI tidak mengenali data tertentu dan secara tidak sengaja menyalakan api di sebuah pabrik, merusak peralatan atau melukai orang.

Tomáš Zato
sumber
Ini adalah jawaban yang baik dan kontemporer. AI "kotak hitam" seperti jaringan saraf tidak mungkin diuji secara absolut, yang membuatnya kurang dari 100% dapat diprediksi - dan dengan ekstensi, kurang dari 100% dapat diandalkan. Kita tidak pernah tahu kapan AI akan mengembangkan strategi alternatif untuk masalah yang diberikan, dan bagaimana strategi alternatif ini akan mempengaruhi kita, dan ini adalah masalah yang sangat besar jika kita ingin mengandalkan AI untuk tugas-tugas penting seperti mengendarai mobil atau mengelola sumber daya.
laancelot
1

Jika robot mirip dengan antarmuka mesin manusia, perangkatnya sama seperti mobil yang dikendalikan dari jarak jauh. Dimungkinkan untuk berdiskusi dengan operator di belakang joystick dan bernegosiasi tentang perilaku angan. Robot yang dikendalikan dari jarak jauh adalah penemuan yang aman karena tindakan mereka dapat ditelusuri kembali ke manusia dan motivasi mereka dapat diantisipasi. Mereka dapat digunakan untuk meningkatkan kehidupan sehari-hari, dan itu lucu untuk bermain dengan mereka.

Sebaliknya, beberapa robot tidak dikendalikan oleh joystick tetapi bekerja dengan generator dadu internal. Mainan dadu diketahui dari peran sosialnya dalam perjudian tetapi juga memiliki makna mistis. Biasanya, generator acak sangat terkait dengan perilaku kacau yang dikendalikan oleh kekuatan gelap di luar pengaruh manusia. Dadu elektronik yang dibangun menjadi robot dan ditingkatkan dengan algoritma pembelajaran adalah kebalikan dari antarmuka mesin manusia, tetapi berpotensi menimbulkan masalah karena robot yang dikendalikan secara acak akan bermain game dengan manusia yang tidak dapat diantisipasi. Tidak mungkin untuk memprediksi jumlah dadu berikutnya, oleh karena itu robot juga akan berperilaku tiba-tiba.

Hubungan antara game yang dikendalikan secara acak dan dampak sosial negatif dijelaskan dalam kalimat berikut.

kutipan: “Di banyak masyarakat tradisional non-Barat, para penjudi dapat berdoa untuk para dewa agar berhasil dan menjelaskan kemenangan dan kekalahan dalam hal kehendak ilahi. "Binde, Per. "Perjudian dan agama: Sejarah kerusuhan dan konflik." Jurnal Masalah Perjudian 20 (2007): 145-165.

Manuel Rodriguez
sumber
1

Manusia saat ini ada di ceruk ekologi-ekonomi "hal yang berpikir".

AI juga merupakan hal yang dipikirkan, sehingga akan menyerang ceruk ekologis-ekonomi kita. Baik dalam ekologi maupun ekonomi, memiliki sesuatu yang lain menempati ceruk Anda bukanlah rencana yang bagus untuk kelangsungan hidup.

Bagaimana tepatnya kelangsungan hidup manusia dikompromikan dengan ini akan menjadi sangat kacau. Akan ada banyak cara yang masuk akal bahwa AI dapat membahayakan kelangsungan hidup manusia sebagai suatu spesies, atau bahkan sebagai bentuk kehidupan yang dominan.


Misalkan ada AI yang kuat tanpa "etika super" yang lebih murah untuk diproduksi daripada manusia (termasuk membuat "tubuh" atau cara memanipulasi dunia), dan sama pintar atau pintarnya daripada manusia.

Ini adalah kasus di mana kita mulai bersaing dengan AI untuk sumber daya. Ini akan terjadi pada skala ekonomi mikro (apakah kita mempekerjakan manusia, atau membeli / membangun / menyewakan / menyewa AI untuk menyelesaikan masalah ini?). Tergantung pada tingkat di mana AI menjadi murah dan / atau lebih pintar daripada orang, ini bisa terjadi secara perlahan (mungkin suatu industri pada suatu waktu) atau sangat cepat.

Dalam kompetisi kapitalis, mereka yang tidak pindah ke AI yang lebih murah akhirnya kalah bersaing.

Sekarang, dalam jangka pendek, jika keunggulan AI hanya marjinal, tingginya biaya pendidikan manusia selama 20 tahun sebelum mereka menjadi produktif bisa membuat proses ini lebih lambat. Dalam hal ini, mungkin layak membayar seorang Dokter di atas upah kelaparan untuk mendiagnosis penyakit daripada AI, tetapi mungkin tidak layak melunasi pinjaman mahasiswa mereka. Jadi Dokter manusia baru akan dengan cepat berhenti dilatih, dan Dokter yang ada akan dimiskinkan. Kemudian lebih dari 20-30 tahun AI sepenuhnya menggantikan Dokter untuk tujuan diagnostik.

Jika keunggulan AI besar, maka itu akan cepat. Dokter bahkan tidak akan layak membayar upah tingkat kemiskinan untuk melakukan diagnosa manusia. Anda dapat melihat hal seperti itu terjadi pada pertanian berbasis otot ketika pertanian berbasis bensin mengambil alih.

Selama revolusi industri yang lalu, fakta bahwa manusia yang mampu berpikir berarti bahwa Anda dapat menggunakan kembali pekerja manusia yang surplus untuk melakukan tindakan lain; jalur manufaktur, pekerjaan ekonomi layanan, pemrograman komputer, dll. Tetapi dalam model ini, AI lebih murah untuk melatih dan membangun dan lebih pintar atau lebih pintar daripada manusia di pekerjaan semacam itu.

Sebagaimana dibuktikan oleh musim semi Arab yang diinduksi etanol, tanaman dan lahan pertanian dapat digunakan untuk bahan bakar baik mesin maupun manusia. Ketika mesin lebih efisien dalam hal mengubah lahan pertanian menjadi pekerjaan yang bermanfaat, Anda akan mulai melihat harga makanan naik. Ini biasanya mengarah pada kerusuhan, karena orang-orang benar-benar tidak suka kelaparan sampai mati dan bersedia mengambil risiko hidup mereka sendiri untuk menggulingkan pemerintah untuk mencegah hal ini.

Anda dapat menenangkan orang-orang dengan menyediakan makanan bersubsidi dan sejenisnya. Selama ini tidak melumpuhkan secara ekonomi (yaitu, jika cukup mahal, itu bisa menyebabkan Anda kalah bersaing dengan tempat lain yang tidak melakukan ini), ini hanya tidak stabil secara politis.

Sebagai alternatif, dalam jangka pendek, kasta kepemilikan yang menerima keuntungan dari ekonomi yang dikelola AI yang semakin efisien dapat membayar polisi atau kasta militer untuk menghentikan kerusuhan tersebut. Ini mensyaratkan bahwa kasta polisi / militer menjadi kelas hidup menengah ke bawah untuk memastikan kesetiaan yang berkelanjutan - Anda tidak ingin mereka bergabung dengan para perusuh.

Jadi salah satu pusat keuntungan yang dapat Anda gunakan untuk AI adalah militer dan kepolisian yang berbasis AI. Drone yang memberikan persenjataan yang mematikan dan tidak mematikan yang didasarkan pada pemrosesan umpan visual dan data lainnya dapat mengurangi jumlah polisi / militer kelas menengah yang diperlukan untuk menurunkan kerusuhan yang dipicu harga makanan atau ketidakstabilan lainnya. Seperti yang telah kita asumsikan mengatakan AI dapat memiliki tubuh dan pelatihan yang lebih murah daripada manusia biologis, ini juga dapat meningkatkan jumlah kekuatan yang dapat Anda gunakan per dolar yang dihabiskan.

Pada titik ini, kita berbicara tentang sebagian besar polisi yang menjalankan AI dan militer yang digunakan untuk membuat manusia kelaparan dari menggulingkan ekonomi yang dikelola AI dan mengambil alat-alat produksi dari penggunaan yang lebih efisien yang saat ini digunakan.

Manusia asli yang "memiliki" sistem di atas membuat keputusan rasional secara lokal untuk mengoptimalkan kekayaan dan kekuasaan mereka. Mereka mungkin atau mungkin tidak bertahan lama; selama mereka menguras sumber daya yang relatif sedikit dan tidak mengacaukan ekonomi yang dikelola AI, tidak akan ada banyak tekanan seleksi untuk menyingkirkannya. Di sisi lain, karena mereka tidak berkontribusi apa pun yang bernilai, posisi mereka "di puncak" secara politis tidak stabil.

Proses ini diasumsikan sebagai AI umum yang "kuat". AI yang lebih sempit dapat melakukan ini dalam potongan-potongan. Komputer diagnostik yang murah dan efektif dapat mengurangi sebagian besar dokter menjadi miskin dalam waktu yang sangat singkat, misalnya. Mobil mengemudi sendiri dapat menelan 5% -10% dari ekonomi. Teknologi informasi sudah menelan sektor ritel dengan AI sederhana.

Dikatakan bahwa setiap kemajuan teknologi mengarah pada pekerjaan yang lebih banyak dan lebih baik bagi manusia. Dan ini benar selama 300 tahun terakhir.

Tetapi sebelum tahun 1900, memang benar bahwa setiap kemajuan teknologi menghasilkan pekerjaan yang lebih banyak dan lebih baik untuk kuda. Kemudian ICE dan mobil tiba, dan sekarang ada jauh lebih sedikit kuda yang bekerja; kuda yang tersisa pada dasarnya setara dengan pelayan pribadi manusia: dipelihara untuk kebaruan "wow, cool, horse" dan kesenangan mengendarai dan mengendalikan binatang besar.

Yakk
sumber
1

Selain banyak jawaban yang telah disediakan, saya akan memunculkan masalah contoh permusuhan di bidang model gambar.

Contoh permusuhan adalah gambar yang telah diganggu dengan kebisingan yang dirancang khusus yang sering tidak terlihat oleh pengamat manusia, tetapi sangat mengubah prediksi model.

Contohnya termasuk:

dthuff
sumber
0

AI yang digunakan untuk memecahkan masalah dunia nyata dapat menimbulkan risiko bagi kemanusiaan dan tidak benar-benar membutuhkan perasaan, ini juga membutuhkan tingkat kebodohan manusia juga ..

Tidak seperti manusia, AI akan menemukan jawaban yang paling logis tanpa kendala emosi, etika, atau bahkan keserakahan ... Hanya logika. Tanyakan kepada AI ini bagaimana menyelesaikan masalah yang diciptakan manusia (misalnya, Perubahan Iklim) dan solusinya mungkin dengan menghilangkan keseluruhan ras manusia untuk melindungi planet ini. Jelas ini akan membutuhkan memberikan AI kemampuan untuk bertindak atas hasilnya yang membawa saya ke titik saya sebelumnya, kebodohan manusia.

Paul
sumber
0

Kecerdasan buatan dapat membahayakan kita dengan cara apa pun dari kecerdasan alami (manusia). Perbedaan antara kecerdasan alami dan buatan akan hilang ketika manusia mulai menambah diri mereka secara lebih intim. Kecerdasan mungkin tidak lagi mencirikan identitas dan akan menjadi milik tanpa batas. Kerugian yang ditimbulkan akan sebanyak yang bisa ditanggung manusia untuk mempertahankan identitas diri mereka yang terus berkembang.

tejasvi88
sumber
0

Hanya sedikit orang yang menyadari bahwa ekonomi global kita harus dianggap sebagai AI: - Transaksi uang adalah sinyal melalui jaringan syaraf. Node dalam jaringan syaraf adalah perusahaan yang berbeda atau orang pribadi yang membayar atau menerima uang. - Itu buatan manusia sehingga memenuhi syarat sebagai buatan

Jaringan saraf ini lebih baik dalam tugasnya daripada manusia: Kapitalisme selalu menang melawan ekonomi yang direncanakan oleh manusia (plan-ekonomi).

Apakah jaring saraf ini berbahaya? Mungkin berbeda jika Anda adalah CEO berpenghasilan besar versus seorang nelayan di sungai yang tercemar oleh limbah perusahaan.

Bagaimana AI ini menjadi berbahaya? Anda bisa menjawabnya adalah karena keserakahan manusia. Ciptaan kita mencerminkan diri kita sendiri. Dengan kata lain: kita tidak melatih jaringan saraf kita untuk berperilaku baik. Alih-alih melatih jaringan saraf untuk meningkatkan kualitas hidup bagi semua manusia, kami melatihnya untuk membuat orang kaya menjadi lebih kaya.

Apakah mudah untuk melatih AI ini agar tidak lagi berbahaya? Mungkin tidak, mungkin beberapa AI hanya lebih besar dari kehidupan. Itu hanya survival of the fittest.

Stuurpiek
sumber