Mengapa Stephen Hawking mengatakan, "Kecerdasan Buatan akan membunuh kita semua"? [Tutup]

10

Kutipan oleh Stephen Hawking ini telah menjadi berita utama selama beberapa waktu:

Inteligensi buatan dapat melenyapkan umat manusia ketika terlalu pintar karena manusia akan seperti semut.

Kenapa dia mengatakan ini? Sederhananya dalam istilah awam: apa ancaman yang mungkin dari AI? Jika kita tahu bahwa AI sangat berbahaya mengapa kita masih mempromosikannya? Mengapa itu tidak dilarang?

Apa konsekuensi negatif dari Singularitas Teknologi ?

setan
sumber
1
Mungkin pertanyaan ini bisa diulangi menjadi pertanyaan tentang kemungkinan singularitas teknologi?
Rob Murray
1
@ R.Murray Diedit dan menambahkan poin Anda ke tubuh ...
tatan
2
Maafkan saya, tapi jangan pilih saya. Tolong, tolong, tolong ajukan pertanyaan yang bisa dijawab daripada yang spekulatif. Maksud saya, "Mengapa Stephen Hawking mengatakan," Kecerdasan Buatan akan membunuh kita semua "? Apa yang Anda harapkan dari jawaban yang tepat ? Kami membutuhkan pertanyaan teknis sejak beta awal untuk menarik para ahli, daripada siapa pun yang memiliki pengetahuan dasar dari membaca beberapa halaman wikipedia. Sekali lagi mengutip- "Mengapa Stephen Hawking mengatakan" Kecerdasan Buatan akan membunuh kita semua "?". Saya tidak berpikir keahlian apa pun diperlukan untuk menjawab ini. Maaf jika saya dianggap kasar dalam kata-kata kasar saya: P
Rushat Rai
Pertanyaannya lebih baik setelah diedit, tetapi akan baik untuk mengurangi jumlah pertanyaan yang ditanyakan sekaligus. Misalnya, Anda bisa bertanya, "Bagaimana AI bisa menghapus umat manusia?" (seperti yang tampaknya Anda lakukan), tetapi mengapa masih diteliti dengan seksama adalah pertanyaan yang berbeda.
Ben N
2
Saya pikir pertanyaan dalam judul bukanlah pertanyaan yang buruk. Itu punya jawaban, karena ia bertanya tentang apa yang dipikirkan Stephen Hawking. Pertanyaan lain dalam tubuh berbeda dari ini dan harus dihilangkan. Saya setuju bahwa ini bukan jenis pertanyaan yang akan menarik para ahli
Harsh

Jawaban:

5

Bukan hanya Hawking, Anda mendengar variasi tentang menahan diri dari banyak orang. Dan mengingat bahwa mereka kebanyakan orang yang sangat pintar, berpendidikan tinggi, dan berpengetahuan luas (misalnya, Elon Musk), mungkin tidak boleh diabaikan begitu saja.

Bagaimanapun, ide dasarnya adalah sebagai berikut: Jika kita menciptakan kecerdasan buatan "nyata", pada titik tertentu, ia akan dapat meningkatkan dirinya sendiri, yang meningkatkan kemampuannya untuk meningkatkan dirinya sendiri, yang berarti ia dapat meningkatkan kemampuannya untuk meningkatkan dirinya sendiri bahkan lebih, dan seterusnya ... kaskade pelarian yang mengarah ke "kecerdasan manusia super". Artinya, mengarah ke sesuatu yang lebih cerdas dari wilayah kita.

Jadi apa yang terjadi jika ada entitas di planet ini yang secara harfiah lebih cerdas daripada kita (manusia)? Apakah itu akan menjadi ancaman bagi kami? Yah, tampaknya masuk akal untuk berspekulasi bahwa itu bisa terjadi. OTOH, kami tidak punya alasan khusus, saat ini, untuk berpikir bahwa itu akan terjadi.

Jadi sepertinya Hawking, Musk, dll hanya turun di sisi yang lebih berhati-hati / menakutkan. Karena kita tidak tahu apakah AI manusia super akan berbahaya atau tidak, dan mengingat bahwa itu bisa tak terhentikan jika menjadi jahat (ingat, ini lebih pintar daripada kita!), Itu adalah hal yang masuk akal untuk dipertimbangkan.

Eliezer Yudkowsky juga menulis sedikit tentang hal ini, termasuk membuat percobaan "Kotak AI" yang terkenal. Saya pikir siapa pun yang tertarik dengan topik ini harus membaca beberapa materinya.

http://www.yudkowsky.net/singularity/aibox/

mindcrime
sumber
1
Saya pikir AI Box sebenarnya merupakan pengantar yang buruk untuk risiko AI; ia menargetkan sebagian kecil dari penjelasan, yaitu "bagaimana orang bisa diyakinkan untuk mengeluarkan AI dari kotak?". Untuk seseorang yang berpikir bahwa AI layak untuk digunakan, mereka telah memutuskan layak mengeluarkannya dari kotak. Tesis Orthogonality mungkin adalah tempat terbaik untuk memulai, saya pikir.
Matthew Graves
Cukup adil. Kebetulan saya lebih akrab dengan tulisan-tulisan Yudkowsky. Tentu saja saya tidak bermaksud mengurangi pentingnya karya-karya lain dalam topik ini.
mindcrime
4

Karena dia belum tahu seberapa jauh AI saat ini ... Bekerja di laboratorium media AI, saya sering mendapat pertanyaan ini. Tapi sungguh ... kita masih jauh dari ini. Robot masih melakukan semua yang kami uraikan untuk mereka lakukan. Alih-alih melihat robot sebagai cerdas, saya akan mencari programmer manusia di mana kreativitas benar-benar terjadi.

dorien
sumber
Penilaian kejujuran terhadap keadaan penelitian adalah salah satu pilar untuk maju. Terima kasih. Saya setuju.
FauChristian
3

Sederhananya dalam istilah awam, apa ancaman yang mungkin dari AI?

Saat ini, tidak ada ancaman.

Ancaman datang jika manusia menciptakan apa yang disebut mesin ultraintelligent, mesin yang dapat melampaui semua aktivitas intelektual oleh manusia mana pun. Ini akan menjadi penemuan terakhir yang perlu dilakukan manusia, karena mesin ini lebih baik dalam menciptakan mesin daripada manusia (karena itu adalah aktivitas intelektual). Namun, ini dapat menyebabkan mesin menciptakan mesin yang dapat merusak manusia, dan kita tidak dapat menghentikannya karena mereka jauh lebih pintar daripada kita.

Ini semua hipotetis, bahkan tidak ada yang tahu seperti apa mesin ultraintelligent.

Jika kita tahu bahwa AI sangat berbahaya mengapa kita masih mempromosikannya? Mengapa itu tidak dilarang?

Seperti yang saya katakan sebelumnya, keberadaan mesin ultraintelligent adalah hipotetis. Inteligensi Buatan memiliki banyak aplikasi yang berguna (lebih dari yang dapat ditampung oleh jawaban ini), dan jika kami mengembangkannya, kami mendapatkan aplikasi yang lebih berguna. Kita hanya harus berhati-hati bahwa mesin tidak akan menyusul kita.

Wythagoras
sumber
3

Seperti Andrew Ng mengatakan , mengkhawatirkan ancaman tersebut dari AI seperti mengkhawatirkan kelebihan penduduk di Mars. Itu adalah fiksi ilmiah.

masukkan deskripsi gambar di sini

Yang sedang berkata, mengingat munculnya robot (jauh lebih lemah) dan agen (semi-otonom) lainnya, bidang hukum dan etika semakin menggabungkan mereka, misalnya lihat Roboethics .

Franck Dernoncourt
sumber
3

Ada sejumlah sumber daya panjang untuk menjawab pertanyaan semacam ini: pertimbangkan buku Stuart Armstrong Smarter Than Us , buku Superintelligence Nick Bostrom , yang tumbuh dari jawaban edge.org ini , penjelasan Tim Urban , atau penjelasan Michael Cohen .

Tapi inilah jawaban saya (agak lebih pendek): kecerdasan adalah tentang pengambilan keputusan, dan kami tidak punya alasan untuk percaya bahwa manusia berada di dekat menjadi yang terbaik dalam pengambilan keputusan. Begitu kita dapat membangun peneliti AI AI (yaitu, komputer yang tahu cara membuat komputer lebih baik dalam berpikir), relevansi ekonomi dan militer manusia akan dengan cepat menghilang karena keputusan apa pun yang dapat dibuat oleh manusia dapat dibuat lebih baik dengan komputer. (Mengapa memiliki jenderal manusia alih-alih jenderal robot, insinyur manusia alih-alih insinyur robot, dan sebagainya.)

Ini belum tentu merupakan malapetaka. Jika Vulcans muncul besok dan membawa pengambilan keputusan yang lebih baik ke Bumi, kita bisa menghindari banyak kesengsaraan. Bagian tersulitnya adalah memastikan bahwa yang kita dapatkan adalah Vulcan yang menginginkan kita dan bahagia, alih-alih sesuatu yang tidak berbagi nilai-nilai kita.

Matthew Graves
sumber
3

Dia mengatakan ini karena itu bisa terjadi. Jika sesuatu menjadi lebih pintar dari kita, mengapa itu terus melayani kita? Skenario kasus terburuk adalah bahwa ia mengambil alih semua proses pembuatan dan menggunakan semua materi untuk mengubahnya menjadi bahan yang mampu melakukan komputasi, meluas ke luar hingga tak terbatas hingga semua materi dikonsumsi.

Kita tahu bahwa AI itu berbahaya tetapi tidak masalah karena kebanyakan orang tidak mempercayainya. Itu bertentangan dengan semua kenyamanan yang ditawarkan agama. Manusia adalah akhir dari segalanya di seluruh alam semesta dan jika fakta itu diperdebatkan, orang akan merasa tidak pada tempatnya dan tanpa tujuan.

Faktanya adalah kebanyakan orang tidak mengakui itu mungkin, atau bahwa hal itu akan terjadi dalam hidup kita, meskipun banyak ahli AI terkemuka menempatkan kejadian singularitas dalam dua dekade. Jika orang benar-benar mengakui bahwa AI yang lebih pintar daripada mereka adalah mungkin, bukankah mereka akan hidup berbeda? Tidakkah mereka ingin melakukan hal-hal yang mereka sukai, mengetahui bahwa apa pun yang mereka lakukan yang mereka takuti akan otomatis? Bukankah semua orang akan meminta penghasilan dasar universal?

Alasan lain kami tidak melarangnya adalah karena janjinya sangat besar. Satu peneliti dapat ditambah oleh 1.000 asisten peneliti digital. Semua pekerjaan manual bisa otomatis. Untuk pertama kalinya, teknologi menawarkan kita kebebasan nyata untuk melakukan apa pun yang kita mau.

Tetapi bahkan dalam skenario kasus terbaik di mana ini tidak melampaui kita, manusia masih harus beradaptasi dan mengubah sistem ekonomi mereka menjadi sistem di mana tenaga kerja tidak diperlukan. Kalau tidak, mereka yang tidak terlatih secara teknis akan kelaparan dan memberontak.

zavtra
sumber
Apakah Anda punya saus untuk ini -> "Pakar AI menempatkan kemunculan singularitas dalam dua dekade" , tolong? ;)
Daniel
Saya sepertinya tidak dapat menemukan survei asli, tetapi situs-situs ini mendekati: aiimpacts.org/predictions-of-human-level-ai-timelines - aiimpacts.org/ai-timeline-surveys - techemergence.com/art
zavtra