Adagrad — 彈性使用Learning Rate · RMSprop — 處理複雜error surface · Momentum — 跳脫出Local minimum 的困境 · Adam — 常用的optimizer.
確定! 回上一頁