方法一:
僅需減小batchsize
改檔案的配置cfg的batchsize=4,一般在cfg檔案下的查找batch或batchsize,将batchsize調小後,再次運作,類似于改下面
方法二 :
上述方法還沒解決,不改batchsize,可以考慮下面的方法的連結
不計算梯度:
ps: 在報錯的哪一行代碼的上面,加上下面一行代碼,不計算梯度
with torch.no_grad()
不計算梯度的方法
方法三:
釋放記憶體:連結如下
釋放記憶體
if hasattr(torch.cuda, 'empty_cache'):
torch.cuda.empty_cache()
ps: 在報錯的哪一行代碼的上面,加上下面兩行代碼,釋放無關的記憶體
if hasattr(torch.cuda, 'empty_cache'):
torch.cuda.empty_cache()