天天看點

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

目錄

0. 前言

1. ReLU 整流線性單元

2. 絕對值整流線性單元

3. 滲漏整流線性單元

4. 參數化整流線性單元

5. maxout 單元

6. logistic sigmoid 單元

7. 雙曲正切單元

8. 徑向基函數

9. softplus 函數

10. 硬雙曲正切函數

如果這篇文章對你有一點小小的幫助,請給個關注,點個贊喔~我會非常開心的~

花書+吳恩達深度學習(一)前饋神經網絡(多層感覺機 MLP)

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)

花書+吳恩達深度學習(三)反向傳播算法 Back Propagation

花書+吳恩達深度學習(四)多分類 softmax

0. 前言

萬能近似定理(universal approximation theorem)表示,一個前饋神經網絡如果具有線性輸出層和至少一層具有任何一種擠壓性質的激活函數的隐藏層,隻要給予網絡足夠數量的隐藏單元,它可以以任意精度來近似任何從一個有限維空間到另一個有限維空間的可測函數,前饋神經網絡的導數也可以任意好的近似函數的導數。

假設,在神經網絡中不使用非線性激活函數,輸入層

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 ,隐藏層輸出

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 ,輸出層輸出 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 ,最終的輸出仍然是線性的。

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數
花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

在新技術的研究和開發期間,通常會測試很多不同的激活函數,并且發現許多标準方法的變體表現非常好。

1. ReLU 整流線性單元

大多數隐藏單元采用 ReLU 整流線性單元(rectified linear unit),

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 :

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

如上圖所示(圖源:深度學習),函數仍然非常接近線性,是以它保留了許多線性模型易于使用梯度優化的屬性。

ReLU 的一個缺陷是它們不能通過基于梯度的方法學習那些使激活函數為零的樣本。

2. 絕對值整流線性單元

絕對值整流線性單元(absolute value rectification)表示為,

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 :

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

3. 滲漏整流線性單元

滲漏整流線性單元(Leaky ReLU)表示為,

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 :

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

4. 參數化整流線性單元

參數化整流線性單元(parametric ReLU,PReLU)表示為,

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 。

将 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 作為學習的參數。

5. maxout 單元

maxout 單元将輸入 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 劃分為每組 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 個值的幾個組,然後針對每組輸出組内最大的值:

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

換言之,輸入 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 個特征,在不損失資訊的情況下,每一組的 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 個特征用最大值概括,那麼輸出就能減少 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 倍的特征。

maxout 單元可以學習具有多達 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 段的分段線性凸函數,使用足夠大的 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 ,maxout 單元可以以任意精度來近似任何凸函數。

6. logistic sigmoid 單元

sigmoid 單元在其大部分區域内都飽和,使得基于梯度的學習變得非常困難,是以不鼓勵其作為隐藏單元激活函數:

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數
花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數
花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

7. 雙曲正切單元

雙曲正切函數定義為:

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 :

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數
花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

8. 徑向基函數

徑向基函數(radial basis function,RBF)表示為:

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

這個函數隻有在 

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

 很接近模版時才有用,大部分時候都飽和,是以很難優化。

9. softplus 函數

softplus 函數是 ReLU 的平滑版本:

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數
花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

10. 硬雙曲正切函數

硬雙曲正切函數(hard tanh)與雙曲正切函數和 ReLU 類似:

花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數
花書+吳恩達深度學習(二)非線性激活函數(ReLU, maxout, sigmoid, tanh)0. 前言1. ReLU 整流線性單元2. 絕對值整流線性單元3. 滲漏整流線性單元4. 參數化整流線性單元5. maxout 單元6. logistic sigmoid 單元7. 雙曲正切單元8. 徑向基函數9. softplus 函數10. 硬雙曲正切函數

如果這篇文章對你有一點小小的幫助,請給個關注,點個贊喔~我會非常開心的~

繼續閱讀