天天看點

Keras 激活函數 Activation

  • softmax:對輸入資料的最後一維進行softmax,輸入資料應形如

    (nb_samples, nb_timesteps, nb_dims)

    (nb_samples,nb_dims)

  • elu
  • selu: 可伸縮的指數線性單元(Scaled Exponential Linear Unit),參考Self-Normalizing Neural Networks
  • softplus
  • softsign
  • relu
  • tanh
  • sigmoid

    Sigmoid函數由下列公式定義 

    Keras 激活函數 Activation
    Keras 激活函數 Activation
  • hard_sigmoid
  • linear 
dl