[source]. LeakyReLU. keras.layers.LeakyReLU(alpha=0.3). 带泄漏的ReLU。 当神经元未激活时,它仍允许赋予一个很小的梯度: f(x) = alpha * x for x < 0 , f(x) = x ...
確定! 回上一頁