ReLu activation function最大的缺點在於對於零或負值輸入,函數的梯度將會變成零值,這使得此方法不適合在輸入有負值的情況下使用。(無法套用backpropagation) Z(X) ...
確定! 回上一頁