Introduce
之前,對于卷積神經網絡(CNN)隻停留在理論層面,基本專業術語(卷積層、池化層等),最多計算卷積後的值之類的。今天,依托于tensorflow官網例程,學習tensorflow架構同時進一步學習CNN,熟悉CNN中的超參數以及如何調超參數?為了以後複習友善,這次講解會特别細!
參考:https://www.leiphone.com/news/201705/6Zi5evpIaKJRHsJj.html
from tensorflow.examples.tutorials.mnist import input_data
import tensorflow as tf
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)# 讀取圖檔資料集
sess = tf.InteractiveSession()# 建立session
#tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name)
#shape: 一維的張量,也是輸出的張量。
#mean: 正态分布的均值。
#stddev: 正态分布的标準差。
#dtype: 輸出的類型。
#seed: 一個整數,當設定之後,每次生成的随機數都一樣。
#name: 操作的名字。
def weight_variable(shape):
initial = tf.truncated_normal(shape, stddev=0.1) ##從截斷的正态分布中輸出随機值。
return tf.Variable(initial)
def bias_variable(shape):
# #通過構造variable 類的執行個體來添加一個變量到圖中,初始值為0.1
initial = tf.constant(0.1, shape=shape)
return tf.Variable(initial)
def conv2d(x, W):
# 卷積周遊各方向步數為1,SAME:邊緣外自動補0,周遊相乘
#http://blog.csdn.net/mao_xiao_feng/article/details/78004522
return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')
def max_pool_2x2(x):
# 池化卷積結果(conv2d)池化層采用kernel大小為2*2,步數也為2,周圍補0,取最大值。資料量縮小了4#倍
return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],strides=[1, 2, 2, 1], padding='SAME')
# 二,定義輸入輸出結構
# 聲明一個占位符,None表示輸入圖檔的數量不定,28*28圖檔分辨率
xs = tf.placeholder(tf.float32, [None, 28*28])
# 類别是0-9總共10個類别,對應輸出分類結果
ys = tf.placeholder(tf.float32, [None, 10])
keep_prob = tf.placeholder(tf.float32)
# x_image又把xs reshape成了28*28*1的形狀,因為是灰色圖檔,是以通道是1.作為訓練時的input,-1#代表圖檔數量不定
x_image = tf.reshape(xs, [-1, 28, 28, 1])
# 三,搭建網絡,定義算法公式,也就是forward時的計算
## 第一層卷積操作 ##
# 第一二參數值得卷積核尺寸大小,即patch,第三個參數是圖像通道數,第四個參數是卷積核的數目,代表##會出現多少個卷積特征圖像;
W_conv1 = weight_variable([5, 5, 1, 32])
# 對于每一個卷積核都有一個對應的偏置量。
b_conv1 = bias_variable([32])
# 圖檔乘以卷積核,并加上偏執量,卷積結果28x28x32
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
# 池化結果14x14x32 卷積結果乘以池化卷積核
h_pool1 = max_pool_2x2(h_conv1)
## 第二層卷積操作 ##
# 32通道卷積,卷積出64個特征
w_conv2 = weight_variable([5,5,32,64])
# 64個偏執資料
b_conv2 = bias_variable([64])
# 注意h_pool1是上一層的池化結果,#卷積結果14x14x64
h_conv2 = tf.nn.relu(conv2d(h_pool1,w_conv2)+b_conv2)
# 池化結果7x7x64
h_pool2 = max_pool_2x2(h_conv2)
# 原圖像尺寸28*28,第一輪圖像縮小為14*14,共有32張,第二輪後圖像縮小為7*7,共有64張
## 第三層全連接配接操作 ##
# 二維張量,第一個參數7*7*64的patch,也可以認為是隻有一行7*7*64個資料的卷積,第二個參數代表卷積個數共1024個
W_fc1 = weight_variable([7*7*64, 1024])
# 1024個偏執資料
b_fc1 = bias_variable([1024])
# 将第二層卷積池化結果reshape成隻有一行7*7*64個資料# [n_samples, 7, 7, 64] ->> [n_samples, 7*7*64]
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
# 卷積操作,結果是1*1*1024,單行乘以單列等于1*1矩陣,matmul實作最基本的矩陣相乘,不同于tf.nn.conv2d的周遊相乘,自動認為是前行向量後列向量
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
# dropout操作,減少過拟合,其實就是降低上一層某些輸入的權重scale,甚至置為0,升高某些輸入的權值#,甚至置為2,防止評測曲線出現震蕩,個人覺得樣本較少#時很必要
# 使用占位符,由dropout自動确定scale,也可以自定義,比如0.5,根據tensorflow文檔可知,程式中##真實使用的值為1/0.5=2,也就是某些輸入乘以2,同時某些#輸入乘以0
keep_prob = tf.placeholder(tf.float32)
h_fc1_drop = tf.nn.dropout(f_fc1,keep_prob) #對卷積結果執行dropout操作
## 第四層輸出操作 ##
# 二維張量,1*1024矩陣卷積,共10個卷積,對應我們開始的ys長度為10
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
# 最後的分類,結果為1*1*10 softmax和sigmoid都是基于logistic分類算法,一個是多分類一個是二分類
y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)
# 四,定義loss(最小誤差機率),標明優化優化loss,
cross_entropy = -tf.reduce_sum(ys * tf.log(y_conv)) # 定義交叉熵為loss函數
train_step = tf.train.DradientDescentOptimizer(0.5).minimize(cross_entropy) # 調用優化##器優化,其實就是通過喂資料争取cross_entropy最小化
# 五,開始資料訓練以及評測
#tf.argmax(y)傳回向量y中最大的那個位置,tf.equal傳回Bool型
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(ys,1))
#tf.cast()将Bool型轉成數值型,0 or 1,求均值就是機率
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
#所有變量進行初始化
tf.global_variables_initializer().run()
for i in range(20000):
#疊代20000次,每次随機送進去20個樣本
batch = mnist.train.next_batch(50)
#每次疊代送入50個樣本進行訓練,利用feed_dic={},訓練資料替代占用符,同時keep_prob:0.5,50%的神經元#關閉,##防止過拟合
train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})
#每疊代100次,做個訓練精度統計 (100次訓練結果的精确度統計)
#.eval()和run()的差別:The difference is in Operations vs. Tensors. Operations use run(#) and Tensors use eval().
if i%100 == 0:
train_accuracy = accuracy.eval(feed_dict={x:batch[0], ys: batch[1], keep_prob: 1.0})
#keep_prob:1.0表示神經元100%輸出,沒有進行dropout正則化
print("step %d, training accuracy %g"%(i, train_accuracy))
print("test accuracy %g"%accuracy.eval(feed_dict={x: mnist.test.images, ys: mnist.test.labels, keep_prob: 1.0}))
總結:到這一步,發現自身幾個問題:卷積和池化概念不熟,卷積計算不熟。下一步加深理論學習和熟悉tensorflow運作機制了解