Apa turunan dari fungsi aktivasi ReLU didefinisikan sebagai:
Bagaimana dengan kasus khusus di mana ada diskontinuitas dalam fungsi di ?
self-study
neural-networks
Tom Hale
sumber
sumber
tf.nn.relu()