天天看点

Keras 激活函数 Activation

  • softmax:对输入数据的最后一维进行softmax,输入数据应形如

    (nb_samples, nb_timesteps, nb_dims)

    (nb_samples,nb_dims)

  • elu
  • selu: 可伸缩的指数线性单元(Scaled Exponential Linear Unit),参考Self-Normalizing Neural Networks
  • softplus
  • softsign
  • relu
  • tanh
  • sigmoid

    Sigmoid函数由下列公式定义 

    Keras 激活函数 Activation
    Keras 激活函数 Activation
  • hard_sigmoid
  • linear 
dl