天天看點

待更-學習筆記——keras模型編譯中的loss、optimizer、metrics參數的設定與優化方法

  1. 關于這三個函數的原代碼,沒怎麼看懂什麼意思,後面看懂了再更

    原參考網址-keras中的loss、optimizer、metrics

參數的選擇有兩種途徑:1. 使用字元串定義。 2.直接使用參數包中自帶的函數

字元串定義方法如下:

如設定:sgd=SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)

編譯時:model.compile(loss=‘xx’,optimizer=sgd,metrics=‘xx’)

  1. 官方文檔

    官方文檔參考網址-keras documentaion

optimizer優化器:

SGD(随機梯度下降優化器,主要需要設定的參數有(Ir、momentu、decay、nesterov));

RMSprop(很适合遞歸神經網絡,主要設定參數Ir、rho、epsilon、decay);Adagrad(主要設定參數Ir、epsilon、decay);

Adadelta(參數的設定會根據學習過程的頻率進行自動調整,使用時建議将參數保留為預設值,是Adgrad的擴充,根據梯度更新的移動視窗來調整學習速度,參數有Ir、rho、epsilon、decay);

Adam(主要參數有 Ir、beta-1、beta-2、epsilon、decay、amsgrad);

Adamax主要參數有 Ir、beta-1、beta-2、epsilon、decay);

Nadam主要參數有 Ir、beta-1、beta-2、epsilon、decay、schedule-decay)、

3 寫的很清楚的一個部落格

關于深度學習優化器Optimizer,你需要了解這些

繼續閱讀