摘錄自《深度學習入門——基于python的理論與實作》
[日]齋藤康議著,陸宇傑譯
第三章
激活函數
實際上,上一章的感覺機和接下來要介紹的神經網絡的主要差別就在于這個激活函數。
階躍函數的實作
簡單的階躍函數:
def step_function(x):
if x > 0:
return 1
else:
return 0
支援numpy的階躍函數:
def step_function(x):
y = x > 0
return y.astype(np.int)
階躍函數的圖形:
import numpy as np
import matplotlib.pyplot as plt
def step_function(x):
return np.array(x>0, dtype=np.int)
x = np.arange(-5.0, 5.0, 0.1)
y = step_function(x)
plt.plot(x, y)
plt.ylim(-0.1, 1.1)
plt.show()

sigmoid函數的實作
def sigmoid(x):
return 1 / (1 + np.exp(-x))
x = np.arange(-5.0, 5.0, 0.1)
y = sigmoid(x)
plt.plot(x, y)
plt.ylim(-0.1, 1,1)
plt.show()
階躍函數和sigmoid函數的比較
不同點:
- 平滑性的不同:
- 傳回值的不同
相同點:
- 重要程度都與值的大小有關
- 取值範圍相同
- 都是非線性函數
ReLU函數
神經網絡很早就開始使用sigmoid函數了,而最近則主要使用ReLU函數:
ReLU函數在輸入大于0時輸出原值,小于等于0時輸出0.
def relu(x):
return np.maximum(0, x)
x = np.arange(-5.0, 5.0, 0.1)
y = relu(x)
plt.plot(x, y)
plt.ylim(-0.1, 1,1)
plt.show()
三層神經網絡的初步實作
import numpy as np
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def init_network():
network = {}
network['W1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
network['b1'] = np.array([0.1, 0.2, 0.3])
network['W2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
network['b2'] = np.array([0.1, 0.2])
network['W3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
network['b3'] = np.array([0.1, 0.2])
return network
def forward(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
return a3
network = init_network()
x = np.array([1.0, 0.5])
y = forward(network, x)
print(y)
另外,這裡出現了forward(前向)一詞,表示從輸入到輸出方向的傳遞處理。
=>通過巧妙地使用NumPy多元數組,我們高效的實作了神經網絡。
輸出層的設計
對于輸出層的激活函數,一般而言回歸問題用恒等函數,分類問題用softmax函數。
softmax函數
分子是輸入信号的指數函數,分母是所有輸入信号指數函數的總和
def softmax(a):
c = np.maximum(a)
exp_a = np.exp(a - c) # 溢出對策
sum_exp_a = np.sum(exp_a)
y = exp_a / sum_exp_a
return y