Fungsi aktivasi digunakan untuk memperkenalkan non-linearitas dalam output linear dari tipe w * x + bdalam jaringan saraf. Yang saya bisa mengerti secara intuitif untuk fungsi aktivasi seperti sigmoid. Saya mengerti keuntungan dari ReLU, yaitu menghindari neuron mati selama backpropagation....