loss 與loss.backward 上面已經解說過,用來反向追蹤導數; with torch.no_grad(): 這部分概念很重要,前面提過PyTorch 會自動追蹤a 的任何計算,所以 ...
確定! 回上一頁