Pertanyaan yang diberi tag neural-network

Jaringan saraf tiruan (JST), terdiri dari 'neuron' - konstruksi pemrograman yang meniru sifat-sifat neuron biologis. Satu set koneksi berbobot antara neuron memungkinkan informasi untuk menyebar melalui jaringan untuk memecahkan masalah kecerdasan buatan tanpa perancang jaringan memiliki model sistem yang nyata.

188
Apa itu lapisan dekonvolusional?

Saya baru-baru ini membaca Jaringan Konvolusional Sepenuhnya untuk Segmentasi Semantik oleh Jonathan Long, Evan Shelhamer, Trevor Darrell. Saya tidak mengerti apa yang dilakukan "lapisan dekonvolusional" / cara kerjanya. Bagian yang relevan adalah 3.3. Upsampling adalah belokan terbalik ke...

95
Kapan menggunakan GRU di atas LSTM?

Perbedaan utama antara GRU dan LSTM adalah bahwa GRU memiliki dua gerbang ( reset dan memperbarui gerbang) sedangkan LSTM memiliki tiga gerbang (yaitu input , output dan gerbang lupa ). Mengapa kita menggunakan GRU ketika kita jelas memiliki lebih banyak kontrol pada jaringan melalui model LSTM...

62
Backprop Melalui Lapisan Max-Pooling?

Ini adalah pertanyaan konseptual kecil yang telah mengganggu saya untuk sementara waktu: Bagaimana kita dapat kembali-menyebar melalui lapisan max-pooling dalam jaringan saraf? Saya menemukan max-pooling layers saat membaca tutorial ini untuk library nn Torch 7. Pustaka mengabstraksi perhitungan...

53
RNN vs CNN di tingkat tinggi

Saya sudah memikirkan Recurrent Neural Networks (RNN) dan varietas mereka dan Convolutional Neural Networks (CNN) dan varietas mereka. Apakah kedua poin ini adil untuk dikatakan: Gunakan CNN untuk memecah komponen (seperti gambar) menjadi subkomponen (seperti objek dalam gambar, seperti garis...

42
Apa perbedaan antara LeakyReLU dan PReLU?

f( x ) = maks ( x , α x ) dengan  α ∈ ( 0 , 1 )f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras, bagaimanapun, memiliki kedua fungsi dalam dokumen . LeLU ReLU Sumber LeakyReLU : return K.relu(inputs, alpha=self.alpha) Karenanya (lihat kode relu...