Istilah "diaktifkan" sebagian besar digunakan ketika berbicara tentang fungsi aktivasi yang hanya menghasilkan nilai (kecuali 0) ketika input ke fungsi aktivasi lebih besar dari treshold tertentu.
Terutama ketika membahas ReLU, istilah "diaktifkan" dapat digunakan. ReLU akan "diaktifkan" ketika outputnya lebih besar dari 0, yang juga ketika inputnya lebih besar dari 0.
Fungsi aktivasi lainnya, seperti sigmoid, selalu mengembalikan nilai lebih dari 0, dan tidak memiliki treshold khusus. Oleh karena itu, istilah "diaktifkan" kurang berarti di sini.
Meskipun kita tahu sedikit tentang mereka, neuron di otak juga tampaknya memiliki sesuatu yang menyerupai fungsi aktivasi dengan semacam "aktivasi treshold".