Kecerdasan Buatan saat ini tampaknya hampir sama dengan pembelajaran mesin, terutama pembelajaran yang mendalam. Beberapa mengatakan bahwa pembelajaran yang mendalam akan menggantikan pakar manusia, yang secara tradisional sangat penting untuk rekayasa fitur, di bidang ini. Dikatakan bahwa dua terobosan menopang munculnya pembelajaran yang mendalam: di satu sisi, ilmu saraf, dan neuroplastisitaskhususnya, memberi tahu kita bahwa seperti otak manusia, yang sangat plastis, jaringan buatan dapat digunakan untuk memodelkan hampir semua fungsi; di sisi lain, peningkatan daya komputasi, khususnya pengenalan GPU dan FPGA, telah meningkatkan kecerdasan algoritmik dengan cara yang luar biasa, dan telah membuat model yang dibuat puluhan tahun yang lalu sangat kuat dan serbaguna. Saya akan menambahkan bahwa data besar (sebagian besar data berlabel) yang terakumulasi selama beberapa tahun terakhir juga relevan.
Perkembangan semacam itu membawa visi komputer (dan pengenalan suara) ke era baru, tetapi dalam pemrosesan bahasa alami dan sistem pakar, situasinya tampaknya belum banyak berubah.
Mencapai akal sehat untuk jaringan saraf tampaknya sulit, tetapi sebagian besar kalimat, percakapan, dan teks pendek mengandung kesimpulan yang harus diambil dari latar belakang pengetahuan dunia. Dengan demikian grafik pengetahuan sangat penting untuk kecerdasan buatan. Jaringan saraf dapat dimanfaatkan dalam membangun basis pengetahuan tetapi tampaknya model jaringan saraf mengalami kesulitan dalam memanfaatkan basis pengetahuan yang dibangun ini.
Pertanyaan saya adalah:
1) Apakah basis pengetahuan (misalnya "grafik pengetahuan" seperti yang diciptakan oleh Google) cabang yang menjanjikan di AI? Jika demikian, dalam hal apa KB dapat memberdayakan pembelajaran mesin? Dan bagaimana itu bisa membantu dalam generasi bahasa alami?
2) Untuk bertahan hidup di zaman yang didominasi oleh DL, di mana arah untuk basis pengetahuan (atau pendekatan simbolik istilah payung)? Apakah Wolfram -seperti z pengetahuan dinamis mendasarkan arah baru? Atau ada arahan baru?
Mudah-mudahan saya mengajukan pertanyaan yang sesuai di sini, karena saya tidak dapat menandai pertanyaan saya sebagai "basis pengetahuan" atau "grafik pengetahuan".
Apakah saya melewatkan sesuatu yang mendasar, atau beberapa ide yang mengatasi masalah ini?
sumber
Jawaban:
Pertama-tama, saya ingin menunjukkan perbedaan utama antara basis pengetahuan dan pembelajaran mesin (Dalam), khususnya ketika fokus utama adalah pada "AI" bukan "Ilmu Data":
NNs seperti kotak hitam; Bahkan jika mereka mempelajari dataset dan mendapatkan kekuatan generalisasi atas domain masalah, Anda tidak akan pernah tahu bagaimana mereka bekerja. jika Anda memeriksa detail model yang dikembangkan, yang Anda lihat hanyalah angka, bobot, koneksi yang buruk dan kuat dan fungsi transformasi. langkah "ekstraksi fitur" sebelum fase pelatihan benar-benar memberitahu Anda: "hei manusia, cukup dengan duniamu yang rumit, mari kita mulai nol dan satu". Dalam kasus DL, itu lebih buruk! kami bahkan tidak melihat fitur apa yang dipilih dan efektif. Saya bukan ahli DL tetapi yang saya tahu, kotak hitam DL lebih gelap! Namun basis pengetahuan ditulis dalam bahasa yang ramah manusia. setelah fase akumulasi pengetahuan, Anda bisa melihat semua koneksi antara entitas, dan yang lebih penting, Anda bisa mengartikan koneksi itu. jika Anda memotong kawat di basis pengetahuan, model Anda akan kehilangan sedikit kekuatannya, dan Anda tahu persis apa yang akan hilang; misalnya mencabut simpul "Pluto" dari simpul "tata surya", akan memberi tahu model Anda apa yang dikatakan deGrasse Tyson kepada kami. tetapi dalam model ML, ini mungkin mengubahnya menjadi tidak berguna murni: apa yang terjadi jika Anda memanipulasi koneksi antara neuron nomor 14 dan 47 dalam model NN yang digunakan untuk memprediksi planet mana yang termasuk dalam tata surya ?!
Model ML hanyalah sebuah prasasti data. Mereka tidak memiliki kekuatan inferensi, dan mereka tidak memberi Anda. Basis pengetahuan ada di sisi lain yang mampu menyimpulkan dari pengetahuan sebelumnya seperti yang Anda tunjukkan dalam pertanyaan Anda. Terlihat bahwa model-model DL yang telah dilatih dengan mengatakan data klasifikasi gambar, juga dapat diterapkan untuk masalah pendeteksian suara. Tetapi ini tidak berarti model DL dapat menerapkan pengetahuan sebelumnya dalam domain gambar ke domain suara.
Anda memerlukan banyak data untuk algoritma ML tradisional dan banyak data untuk yang DL. tetapi satu contoh dataset akan membuat basis pengetahuan yang berarti untuk Anda.
Ada dua topik penelitian utama dalam NLP: terjemahan mesin dan menjawab pertanyaan. Secara praktis telah ditunjukkan bahwa DL bekerja secara signifikan dengan masalah terjemahan mesin tetapi bertindak agak bodoh dalam menjawab pertanyaan tantangan, khususnya ketika domain topik yang dibahas dalam percakapan manusia-mesin luas. Basis pengetahuan bukanlah pilihan yang baik untuk terjemahan mesin tetapi mungkin merupakan kunci untuk mesin penjawab pertanyaan yang mulia. Karena yang penting dalam terjemahan mesin hanyalah versi terjemahan dari sebuah teks (dan saya tidak peduli bagaimana mesin itu melakukan hal itu sejauh itu benar) tetapi dalam menjawab pertanyaan masalah, saya tidak memerlukan burung beo yang mengulangi informasi yang sama dengan yang saya berikan kepadanya, tetapi makhluk cerdas yang memberi saya "apel bisa dimakan" setelah saya katakan kepadanya "apel adalah buah" dan "
sumber