天天看點

【從零開始學習深度學習】9.多層感覺機MLP及常用激活函數介紹

之前的文章已經介紹了包括線性回歸和softmax回歸在内的單層神經網絡。然而深度學習主要關注多層模型。在文,我們将以多層感覺機(multilayer perceptron,MLP)為例,介紹多層神經網絡的概念。

1.1 隐藏層

多層感覺機在單層神經網絡的基礎上引入了一到多個隐藏層(hidden layer)。隐藏層位于輸入層和輸出層之間。下圖展示了一個多層感覺機的神經網絡圖,它含有一個隐藏層,該層中有5個隐藏單元。

【從零開始學習深度學習】9.多層感覺機MLP及常用激活函數介紹

在上圖所示的多層感覺機中,輸入和輸出個數分别為4和3,中間的隐藏層中包含了5個隐藏單元(hidden unit)。由于輸入層不涉及計算,上圖中的多層感覺機的層數為2。由圖可見,隐藏層中的神經元和輸入層中各個輸入完全連接配接,輸出層中的神經元和隐藏層中的各個神經元也完全連接配接。是以,多層感覺機中的隐藏層和輸出層都是全連接配接層。

具體來說,給定一個小批量樣本 X ∈ R n × d \boldsymbol{X} \in \mathbb{R}^{n \times d} X∈Rn×d,其批量大小為 n n n,輸入個數為 d d d。假設多層感覺機隻有一個隐藏層,其中隐藏單元個數為 h h h。記隐藏層的輸出(也稱為隐藏層變量或隐藏變量)為 H \boldsymbol{H} H,有 H ∈ R n × h \boldsymbol{H} \in \mathbb{R}^{n \times h} H∈Rn×h。因為隐藏層和輸出層均是全連接配接層,可以設隐藏層的權重參數和偏差參數分别為 W h ∈ R d × h \boldsymbol{W}_h \in \mathbb{R}^{d \times h} Wh​∈Rd×h和 b h ∈ R 1 × h \boldsymbol{b}_h \in \mathbb{R}^{1 \times h} bh​∈R1×h,輸出層的權重和偏差參數分别為 W o ∈ R h × q \boldsymbol{W}_o \in \mathbb{R}^{h \times q} Wo​∈Rh×q和 b o ∈ R 1 × q \boldsymbol{b}_o \in \mathbb{R}^{1 \times q} bo​∈R1×q。

我們先來看一種含單隐藏層的多層感覺機的設計。其輸出 O ∈ R n × q \boldsymbol{O} \in \mathbb{R}^{n \times q} O∈Rn×q的計算為

H = X W h + b h , O = H W o + b o , \begin{aligned} \boldsymbol{H} &= \boldsymbol{X} \boldsymbol{W}_h + \boldsymbol{b}_h,\\ \boldsymbol{O} &= \boldsymbol{H} \boldsymbol{W}_o + \boldsymbol{b}_o, \end{aligned} HO​=XWh​+bh​,=HWo​+bo​,​

也就是将隐藏層的輸出直接作為輸出層的輸入。如果将以上兩個式子聯立起來,可以得到

O = ( X W h + b h ) W o + b o = X W h W o + b h W o + b o . \boldsymbol{O} = (\boldsymbol{X} \boldsymbol{W}_h + \boldsymbol{b}_h)\boldsymbol{W}_o + \boldsymbol{b}_o = \boldsymbol{X} \boldsymbol{W}_h\boldsymbol{W}_o + \boldsymbol{b}_h \boldsymbol{W}_o + \boldsymbol{b}_o. O=(XWh​+bh​)Wo​+bo​=XWh​Wo​+bh​Wo​+bo​.

從聯立後的式子可以看出,

雖然神經網絡引入了隐藏層,卻依然等價于一個單層神經網絡

:其中輸出層權重參數為 W h W o \boldsymbol{W}_h\boldsymbol{W}_o Wh​Wo​,偏差參數為 b h W o + b o \boldsymbol{b}_h \boldsymbol{W}_o + \boldsymbol{b}_o bh​Wo​+bo​。

不難發現,即便再添加更多的隐藏層,以上設計依然隻能與僅含輸出層的單層神經網絡等價

1.2 激活函數

上述問題的根源在于

全連接配接層隻是對資料做仿射變換(affine transformation),而多個仿射變換的疊加仍然是一個仿射變換

。解決問題的一個方法是

引入非線性變換

,例如對

隐藏變量使用按元素運算的非線性函數進行變換

,然後再作為下一個全連接配接層的輸入。這個

非線性函數被稱為激活函數(activation function)

。下面我們介紹幾個常用的激活函數。

1.2.1 ReLU函數

ReLU(rectified linear unit)函數提供了一個很簡單的非線性變換。給定元素 x x x,該函數定義為

ReLU ( x ) = max ⁡ ( x , 0 ) . \text{ReLU}(x) = \max(x, 0). ReLU(x)=max(x,0).

可以看出,ReLU函數隻保留正數元素,并将負數元素清零。為了直覺地觀察這一非線性變換,我們先定義一個繪圖函數

xyplot

%matplotlib inline
import torch
import numpy as np
import matplotlib.pylab as plt
import sys
sys.path.append("..") 
import d2lzh_pytorch as d2l

def xyplot(x_vals, y_vals, name):
    d2l.set_figsize(figsize=(5, 2.5))
    d2l.plt.plot(x_vals.detach().numpy(), y_vals.detach().numpy())
    d2l.plt.xlabel('x')
    d2l.plt.ylabel(name + '(x)')
           

我們接下來通過

Tensor

提供的

relu

函數來繪制ReLU函數。可以看到,該激活函數是一個兩段線性函數。

x = torch.arange(-8.0, 8.0, 0.1, requires_grad=True)
y = x.relu()
xyplot(x, y, 'relu')
           
【從零開始學習深度學習】9.多層感覺機MLP及常用激活函數介紹

顯然,當輸入為負數時,ReLU函數的導數為0;當輸入為正數時,ReLU函數的導數為1。盡管輸入為0時ReLU函數不可導,但是我們可以取此處的導數為0。下面繪制ReLU函數的導數。

y.sum().backward()
xyplot(x, x.grad, 'grad of relu')
           
【從零開始學習深度學習】9.多層感覺機MLP及常用激活函數介紹

1.2.2 sigmoid函數

sigmoid函數可以将元素的值變換到0和1之間:

sigmoid ( x ) = 1 1 + exp ⁡ ( − x ) . \text{sigmoid}(x) = \frac{1}{1 + \exp(-x)}. sigmoid(x)=1+exp(−x)1​.

sigmoid函數在早期的神經網絡中較為普遍,但它目前逐漸被更簡單的ReLU函數取代。在後面“循環神經網絡”一章中我們會介紹如何利用它值域在0到1之間這一特性來控制資訊在神經網絡中的流動。下面繪制了sigmoid函數。當輸入接近0時,sigmoid函數接近線性變換。

y = x.sigmoid()
xyplot(x, y, 'sigmoid')
           
【從零開始學習深度學習】9.多層感覺機MLP及常用激活函數介紹

依據鍊式法則,sigmoid函數的導數

sigmoid ′ ( x ) = sigmoid ( x ) ( 1 − sigmoid ( x ) ) . \text{sigmoid}'(x) = \text{sigmoid}(x)\left(1-\text{sigmoid}(x)\right). sigmoid′(x)=sigmoid(x)(1−sigmoid(x)).

下面繪制了sigmoid函數的導數。當輸入為0時,sigmoid函數的導數達到最大值0.25;當輸入越偏離0時,sigmoid函數的導數越接近0。

x.grad.zero_()
y.sum().backward()
xyplot(x, x.grad, 'grad of sigmoid')
           
【從零開始學習深度學習】9.多層感覺機MLP及常用激活函數介紹

1.2.3 tanh函數

tanh(雙曲正切)函數可以将元素的值變換到-1和1之間:

tanh ( x ) = 1 − exp ⁡ ( − 2 x ) 1 + exp ⁡ ( − 2 x ) . \text{tanh}(x) = \frac{1 - \exp(-2x)}{1 + \exp(-2x)}. tanh(x)=1+exp(−2x)1−exp(−2x)​.

我們接着繪制tanh函數。當輸入接近0時,tanh函數接近線性變換。雖然該函數的形狀和sigmoid函數的形狀很像,但tanh函數在坐标系的原點上對稱。

y = x.tanh()
xyplot(x, y, 'tanh')
           
【從零開始學習深度學習】9.多層感覺機MLP及常用激活函數介紹

依據鍊式法則,tanh函數的導數

tanh ′ ( x ) = 1 − tanh 2 ( x ) . \text{tanh}'(x) = 1 - \text{tanh}^2(x). tanh′(x)=1−tanh2(x).

下面繪制了tanh函數的導數。當輸入為0時,tanh函數的導數達到最大值1;當輸入越偏離0時,tanh函數的導數越接近0。

x.grad.zero_()
y.sum().backward()
xyplot(x, x.grad, 'grad of tanh')
           
【從零開始學習深度學習】9.多層感覺機MLP及常用激活函數介紹

1.3 多層感覺機

多層感覺機就是含有至少一個隐藏層的由全連接配接層組成的神經網絡

,且

每個隐藏層的輸出通過激活函數進行變換

。多層感覺機的層數和各隐藏層中隐藏單元個數都是超參數。以單隐藏層為例并沿用本節之前定義的符号,多層感覺機按以下方式計算輸出:

H = ϕ ( X W h + b h ) , O = H W o + b o , \begin{aligned} \boldsymbol{H} &= \phi(\boldsymbol{X} \boldsymbol{W}_h + \boldsymbol{b}_h),\\ \boldsymbol{O} &= \boldsymbol{H} \boldsymbol{W}_o + \boldsymbol{b}_o, \end{aligned} HO​=ϕ(XWh​+bh​),=HWo​+bo​,​

其中 ϕ \phi ϕ表示

激活函數

。在分類問題中,我們可以對輸出 O \boldsymbol{O} O做softmax運算,并使用softmax回歸中的交叉熵損失函數。

在回歸問題中,我們将輸出層的輸出個數設為1,并将輸出 O \boldsymbol{O} O直接提供給線性回歸中使用的平方損失函數。

小結

  • 多層感覺機在輸出層與輸入層之間加入了一個或多個全連接配接隐藏層,并通過激活函數對隐藏層輸出進行變換。
  • 常用的激活函數包括ReLU函數、sigmoid函數和tanh函數。

如果内容對你有幫助,感謝點贊+關注哦!

關注下方GZH,可擷取更多幹貨内容~歡迎共同學習交流

繼續閱讀