Saya mendengarkan ceramah panel yang terdiri dari dua ilmuwan Cina berpengaruh: Wang Gang dan Yu Kai dan yang lainnya.
Ketika ditanya tentang hambatan terbesar pengembangan kecerdasan buatan dalam waktu dekat (3 hingga 5 tahun), Yu Kai, yang memiliki latar belakang di industri perangkat keras, mengatakan bahwa perangkat keras akan menjadi masalah penting dan kita harus membayar sebagian besar perhatian kami untuk itu. Dia memberi kami dua contoh:
- Dalam pengembangan awal komputer, kami membandingkan mesin kami dengan chip-nya;
- Kecerdasan buatan yang sangat populer tahun ini hampir tidak mungkin jika tidak diberdayakan oleh GPU Nvidia.
Algoritma fundamental sudah ada pada 1980-an dan 1990-an, tetapi kecerdasan buatan melewati 3 musim dingin AI dan tidak empiris sampai kita dapat melatih model dengan server mega yang didukung GPU.
Kemudian Dr. Wang mengomentari pendapatnya bahwa kita juga harus mengembangkan sistem perangkat lunak karena kita tidak dapat membangun mobil otomatis bahkan jika kita telah menggabungkan semua GPU dan perhitungan di dunia secara bersamaan.
Kemudian, seperti biasa, pikiran saya melayang dan saya mulai berpikir bahwa bagaimana jika mereka yang dapat mengoperasikan superkomputer pada 1980-an dan 1990-an memanfaatkan algoritma jaringan saraf yang ada dan melatih mereka dengan banyak data ilmiah? Beberapa orang pada waktu itu jelas dapat mencoba membangun sistem AI yang sedang kita bangun sekarang. Tetapi mengapa AI menjadi topik hangat dan menjadi empiris sampai beberapa dekade kemudian? Apakah ini hanya masalah perangkat keras, perangkat lunak, dan data?
sumber
Jawaban:
Ada banyak faktor untuk booming industri AI. Apa yang banyak orang lewatkan adalah boomingnya sebagian besar berada di bagian Machine Learning dari AI. Ini dapat dikaitkan dengan berbagai alasan sederhana bersama dengan perbandingan mereka selama masa sebelumnya:
Aspek penting lainnya adalah saat ini setiap orang memiliki akses ke komputer yang kuat. Dengan demikian, siapa pun dapat membangun model ML baru, melatih kembali model yang sudah ada, memodifikasi model, dll. Ini sangat tidak mungkin pada masa-masa sebelumnya,
Semua faktor ini telah menyebabkan lonjakan besar dalam minat pada ML dan telah menyebabkan ledakan yang kita lihat hari ini. Lihat juga pertanyaan ini tentang bagaimana kita bergerak melampaui prosesor digital.
sumber
GPU ideal untuk booming AI karena
AI telah diteliti untuk waktu yang lama. Hampir setengah abad. Namun, itu semua eksplorasi bagaimana algoritma bekerja dan terlihat. Ketika NV melihat bahwa AI akan menjadi arus utama, mereka melihat GPU mereka dan menyadari bahwa kekuatan pemrosesan parellel yang besar, dengan relatif mudah diprogramnya, sangat ideal untuk era yang akan datang. Banyak orang juga menyadarinya.
GPGPU adalah konsep menggunakan pemrosesan paralel GPU untuk tugas-tugas umum. Anda dapat mempercepat grafik, atau membuat algoritma Anda memanfaatkan 1000s core yang tersedia di GPU. Itu membuat target GPU luar biasa untuk semua jenis kasus penggunaan termasuk AI. Mengingat bahwa mereka sudah tersedia dan tidak terlalu sulit untuk diprogram, pilihan ideal untuk mempercepat algoritma AI.
sumber