2017年2月12日 — TLDR (or the take-away)优先使用ReLU (Rectified Linear Unit) 函数作为神经元的activation function: \text{ReLU} = \max(0, x)背景深度学习的基本 ...
確定! 回上一頁