Adam (lr=0.001, weight_decay=0, betas=0.9, 0.999, eps=1e-08, ... 别名 fastNLP.AdamW fastNLP.core.optimizer.AdamW. 对AdamW的实现,该实现在pytorch 1.2.0版本中 ...
確定! 回上一頁