- softmax:對輸入資料的最後一維進行softmax,輸入資料應形如
或(nb_samples, nb_timesteps, nb_dims)
(nb_samples,nb_dims)
- elu
- selu: 可伸縮的指數線性單元(Scaled Exponential Linear Unit),參考Self-Normalizing Neural Networks
- softplus
- softsign
- relu
- tanh
-
sigmoid
Sigmoid函數由下列公式定義
Keras 激活函數 Activation Keras 激活函數 Activation - hard_sigmoid
- linear