- softmax:对输入数据的最后一维进行softmax,输入数据应形如
或(nb_samples, nb_timesteps, nb_dims)
(nb_samples,nb_dims)
- elu
- selu: 可伸缩的指数线性单元(Scaled Exponential Linear Unit),参考Self-Normalizing Neural Networks
- softplus
- softsign
- relu
- tanh
-
sigmoid
Sigmoid函数由下列公式定义
Keras 激活函数 Activation Keras 激活函数 Activation - hard_sigmoid
- linear