Apakah Nassim Taleb benar tentang AI yang tidak dapat secara akurat memprediksi jenis distribusi tertentu?

8

Jadi Taleb memiliki dua heuristik untuk secara umum menggambarkan distribusi data. Salah satunya adalah Mediocristan, yang pada dasarnya berarti hal-hal yang ada pada distribusi Gaussian seperti tinggi dan / atau berat orang.

Yang lain disebut Extremistan, yang menggambarkan distribusi yang lebih suka Pareto atau tail-tailed. Contohnya adalah distribusi kekayaan, 1% dari orang memiliki 50% dari kekayaan atau sesuatu yang dekat dengan itu dan karenanya prediktabilitas dari kumpulan data yang terbatas jauh lebih sulit atau bahkan tidak mungkin. Ini karena Anda dapat menambahkan sampel tunggal ke kumpulan data Anda dan konsekuensinya sangat besar sehingga merusak model, atau memiliki efek yang sangat besar sehingga membatalkan salah satu manfaat dari prediksi akurat sebelumnya. Sebenarnya ini adalah bagaimana ia mengklaim telah menghasilkan uang di pasar saham, karena semua orang menggunakan model distribusi Gaussian yang buruk untuk memprediksi pasar, yang sebenarnya akan bekerja untuk waktu yang singkat tetapi ketika ada masalah, mereka menjadi sangat salah yang akan menyebabkan Anda memiliki kerugian bersih di pasar.

Saya menemukan video Taleb ini ditanya tentang AI. Klaimnya adalah bahwa AI tidak bekerja (juga) untuk hal-hal yang jatuh ke dalam ekstrimisme.

Apakah dia benar Apakah beberapa hal secara inheren tidak dapat diprediksi bahkan dengan AI?

Ini adalah video yang saya maksudkan di https://youtu.be/B2-QCv-hChY?t=43m08s

Yosia Swaim
sumber

Jawaban:

6

Iya dan tidak!

Tidak ada alasan yang melekat bahwa sistem pembelajaran mesin tidak dapat menangani peristiwa ekstrem. Sebagai versi sederhana, Anda dapat mempelajari parameter distribusi Weibull , atau model nilai ekstrem lainnya, dari data.

Masalah yang lebih besar adalah dengan diketahui-tidak diketahui vs tidak diketahui-tidak diketahui. Jika Anda tahu bahwa peristiwa langka itu mungkin (seperti, katakanlah, prediksi gempa bumi), Anda dapat memasukkan pengetahuan itu ke dalam model yang Anda kembangkan, dan Anda akan mendapatkan sesuatu yang berfungsi dengan baik atau lebih baik daripada manusia dalam domain itu. Jika Anda tidak tahu bahwa peristiwa langka mungkin terjadi (seperti, katakanlah, crash pasar saham yang dihasilkan oleh standar perumahan berkorelasi), maka model Anda akan mencerminkan hal itu juga.

Saya cenderung berpikir Taleb bersikap sedikit tidak adil di sini: AI tidak bisa menangani peristiwa semacam ini justru karena penciptanya (kita) tidak bisa menanganinya! Jika kami tahu itu mungkin, maka kami bisa menanganinya dengan cukup baik, dan AI juga bisa.

John Doucette
sumber
1
Bukankah ketidakmampuan model-model ini (termasuk yang ada di otak manusia) untuk menangani maksudnya yang tidak diketahui-tidak diketahui? Karena selalu ada batasan untuk jumlah data akurat yang dapat kami kumpulkan dalam sampel kami dan dalam kasus distribusi ekor gemuk efek dari pencilan bisa sangat besar, sedangkan dalam distribusi normal efek atau kerusakan pencilan ekstrim akan biasanya cukup kecil. Jadi seolah-olah dia mengatakan ini adalah karakteristik mendasar untuk pengetahuan dan sistem prediksi, berdasarkan biologis atau mesin, maka mengapa AI akan dibatasi dalam domain tertentu.
Josiah Swaim
2
Hmm. Saya pikir ada dua masalah. Salah satunya adalah klaim bahwa kami tidak dapat menangani distribusi ekor berlemak dengan AI. Ini salah. Yang lainnya adalah, jika Anda tidak tahu distribusi apa yang cocok untuk masalah yang Anda pelajari (yaitu, jika Anda tidak benar-benar memahami masalah Anda), maka Anda akan dikejutkan oleh kejadian yang tidak terduga. Ini benar. Saya pikir Taleb sedang menyatukan dua masalah, padahal sebenarnya keduanya terpisah.
John Doucette