在輸入數據時,通常都會先將feature 做normalize 後再進行訓練,可以加速模型收斂;而Batch Normalization 就是指在每一層輸入都做一次normalize.
確定! 回上一頁