天天看點

使用pytorch的loss.backward()時,出現element 0 of tensors does not require grad and does not have a grad_fn

僅作為記錄,大佬請跳過。

loss.requires_grad_(True)

是因為loss沒有設定梯度(是以不能反向傳播)(loss的資料類型是tensor)

設定梯度後即可,展示:

使用pytorch的loss.backward()時,出現element 0 of tensors does not require grad and does not have a grad_fn

參考

pytorch官方教程 傳送門

繼續閱讀