pytorch
pytorch訓練模型的記憶體一直增加,在我的問題是:
建立了多個dataloader,但是訓練的時候隻用了一個dataloader的資料,但是另外一個dataloader也參與了循環,具體看下面的例子:
這樣就隻用了dataloaderA的資料,沒有用dataloaderB的資料
pytorch
pytorch訓練模型的記憶體一直增加,在我的問題是:
建立了多個dataloader,但是訓練的時候隻用了一個dataloader的資料,但是另外一個dataloader也參與了循環,具體看下面的例子:
這樣就隻用了dataloaderA的資料,沒有用dataloaderB的資料