-
關于這三個函數的原代碼,沒怎麼看懂什麼意思,後面看懂了再更
原參考網址-keras中的loss、optimizer、metrics
參數的選擇有兩種途徑:1. 使用字元串定義。 2.直接使用參數包中自帶的函數
字元串定義方法如下:
如設定:sgd=SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
編譯時:model.compile(loss=‘xx’,optimizer=sgd,metrics=‘xx’)
-
官方文檔
官方文檔參考網址-keras documentaion
optimizer優化器:
SGD(随機梯度下降優化器,主要需要設定的參數有(Ir、momentu、decay、nesterov));
RMSprop(很适合遞歸神經網絡,主要設定參數Ir、rho、epsilon、decay);Adagrad(主要設定參數Ir、epsilon、decay);
Adadelta(參數的設定會根據學習過程的頻率進行自動調整,使用時建議将參數保留為預設值,是Adgrad的擴充,根據梯度更新的移動視窗來調整學習速度,參數有Ir、rho、epsilon、decay);
Adam(主要參數有 Ir、beta-1、beta-2、epsilon、decay、amsgrad);
Adamax主要參數有 Ir、beta-1、beta-2、epsilon、decay);
Nadam主要參數有 Ir、beta-1、beta-2、epsilon、decay、schedule-decay)、
3 寫的很清楚的一個部落格
關于深度學習優化器Optimizer,你需要了解這些