天天看點

batch_size、iteration以及epoch的差別

首先我們來看看每個的含義:

batchsize:中文翻譯為批大小(批尺寸)。在深度學習中,一般采用SGD訓練,即每次訓練在訓練集中取batchsize個樣本訓練;

iteration:中文翻譯為疊代,1個iteration等于使用batchsize個樣本訓練一次;一個疊代 = 一個正向通過+一個反向通過;

epoch:疊代次數,1個epoch等于使用訓練集中的全部樣本訓練一次;一個epoch = 所有訓練樣本的一個正向傳遞和一個反向傳遞

接着舉個例之:

假設訓練集有1000個樣本,batchsize=10,那麼:訓練完整個樣本集需要:100次iteration,1次epoch。

再如現在有1000個樣本,batch_size為100,則iteration就是10,batch_size * iteration = 樣本數量   100*10=1000,一個epoch為所有樣本完成一次反向傳播。

繼續閱讀