天天看點

【pytorch】——訓練的時候記憶體一直增加

pytorch

pytorch訓練模型的記憶體一直增加,在我的問題是:

建立了多個dataloader,但是訓練的時候隻用了一個dataloader的資料,但是另外一個dataloader也參與了循環,具體看下面的例子:

這樣就隻用了dataloaderA的資料,沒有用dataloaderB的資料

繼續閱讀