天天看點

卷積神經網絡(CNN)和Tensorflow初探——MNIST

Introduce

之前,對于卷積神經網絡(CNN)隻停留在理論層面,基本專業術語(卷積層、池化層等),最多計算卷積後的值之類的。今天,依托于tensorflow官網例程,學習tensorflow架構同時進一步學習CNN,熟悉CNN中的超參數以及如何調超參數?為了以後複習友善,這次講解會特别細!

參考:https://www.leiphone.com/news/201705/6Zi5evpIaKJRHsJj.html

from tensorflow.examples.tutorials.mnist import input_data  
import tensorflow as tf  
mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)# 讀取圖檔資料集  
sess = tf.InteractiveSession()# 建立session  
           
#tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name)

#shape: 一維的張量,也是輸出的張量。
#mean: 正态分布的均值。 
#stddev: 正态分布的标準差。
#dtype: 輸出的類型。
#seed: 一個整數,當設定之後,每次生成的随機數都一樣。
#name: 操作的名字。 
           
def weight_variable(shape): 
    initial = tf.truncated_normal(shape, stddev=0.1)  ##從截斷的正态分布中輸出随機值。
    return tf.Variable(initial)  
def bias_variable(shape):  
    # #通過構造variable 類的執行個體來添加一個變量到圖中,初始值為0.1
    initial = tf.constant(0.1, shape=shape)  
    return tf.Variable(initial)  
def conv2d(x, W):    
    # 卷積周遊各方向步數為1,SAME:邊緣外自動補0,周遊相乘  
    #http://blog.csdn.net/mao_xiao_feng/article/details/78004522
    return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding='SAME')    
def max_pool_2x2(x):    
    # 池化卷積結果(conv2d)池化層采用kernel大小為2*2,步數也為2,周圍補0,取最大值。資料量縮小了4#倍  
    return tf.nn.max_pool(x, ksize=[1, 2, 2, 1],strides=[1, 2, 2, 1], padding='SAME')    
           
# 二,定義輸入輸出結構  
    # 聲明一個占位符,None表示輸入圖檔的數量不定,28*28圖檔分辨率  
xs = tf.placeholder(tf.float32, [None, 28*28])   
    # 類别是0-9總共10個類别,對應輸出分類結果  
ys = tf.placeholder(tf.float32, [None, 10])   
keep_prob = tf.placeholder(tf.float32)  
    # x_image又把xs reshape成了28*28*1的形狀,因為是灰色圖檔,是以通道是1.作為訓練時的input,-1#代表圖檔數量不定  
x_image = tf.reshape(xs, [-1, 28, 28, 1])  
           
# 三,搭建網絡,定義算法公式,也就是forward時的計算  
    ## 第一層卷積操作 ##  
    # 第一二參數值得卷積核尺寸大小,即patch,第三個參數是圖像通道數,第四個參數是卷積核的數目,代表##會出現多少個卷積特征圖像;  
W_conv1 = weight_variable([5, 5, 1, 32])   
    # 對于每一個卷積核都有一個對應的偏置量。  
b_conv1 = bias_variable([32])    
    # 圖檔乘以卷積核,并加上偏執量,卷積結果28x28x32  
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)    
    # 池化結果14x14x32 卷積結果乘以池化卷積核  
h_pool1 = max_pool_2x2(h_conv1)   
  
    ## 第二層卷積操作 ##     
    # 32通道卷積,卷積出64個特征    
w_conv2 = weight_variable([5,5,32,64])   
    # 64個偏執資料  
b_conv2  = bias_variable([64])   
    # 注意h_pool1是上一層的池化結果,#卷積結果14x14x64  
h_conv2 = tf.nn.relu(conv2d(h_pool1,w_conv2)+b_conv2)    
    # 池化結果7x7x64  
h_pool2 = max_pool_2x2(h_conv2)    
    # 原圖像尺寸28*28,第一輪圖像縮小為14*14,共有32張,第二輪後圖像縮小為7*7,共有64張    
  
    ## 第三層全連接配接操作 ##  

    # 二維張量,第一個參數7*7*64的patch,也可以認為是隻有一行7*7*64個資料的卷積,第二個參數代表卷積個數共1024個  
W_fc1 = weight_variable([7*7*64, 1024])   
    # 1024個偏執資料  
b_fc1 = bias_variable([1024])   
    # 将第二層卷積池化結果reshape成隻有一行7*7*64個資料# [n_samples, 7, 7, 64] ->> [n_samples, 7*7*64]  
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])   
    # 卷積操作,結果是1*1*1024,單行乘以單列等于1*1矩陣,matmul實作最基本的矩陣相乘,不同于tf.nn.conv2d的周遊相乘,自動認為是前行向量後列向量  
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)   
  
    # dropout操作,減少過拟合,其實就是降低上一層某些輸入的權重scale,甚至置為0,升高某些輸入的權值#,甚至置為2,防止評測曲線出現震蕩,個人覺得樣本較少#時很必要  
    # 使用占位符,由dropout自動确定scale,也可以自定義,比如0.5,根據tensorflow文檔可知,程式中##真實使用的值為1/0.5=2,也就是某些輸入乘以2,同時某些#輸入乘以0  
keep_prob = tf.placeholder(tf.float32)   
h_fc1_drop = tf.nn.dropout(f_fc1,keep_prob) #對卷積結果執行dropout操作  
           

## 第四層輸出操作 ##  

    # 二維張量,1*1024矩陣卷積,共10個卷積,對應我們開始的ys長度為10  

W_fc2 = weight_variable([1024, 10])    

b_fc2 = bias_variable([10])    

    # 最後的分類,結果為1*1*10 softmax和sigmoid都是基于logistic分類算法,一個是多分類一個是二分類  

y_conv=tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)   

# 四,定義loss(最小誤差機率),標明優化優化loss,  
cross_entropy = -tf.reduce_sum(ys * tf.log(y_conv)) # 定義交叉熵為loss函數    
train_step = tf.train.DradientDescentOptimizer(0.5).minimize(cross_entropy) # 調用優化##器優化,其實就是通過喂資料争取cross_entropy最小化    
           
# 五,開始資料訓練以及評測  
#tf.argmax(y)傳回向量y中最大的那個位置,tf.equal傳回Bool型
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(ys,1))  
#tf.cast()将Bool型轉成數值型,0 or 1,求均值就是機率
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))  
#所有變量進行初始化
tf.global_variables_initializer().run()  
for i in range(20000):
#疊代20000次,每次随機送進去20個樣本 
    batch = mnist.train.next_batch(50)
#每次疊代送入50個樣本進行訓練,利用feed_dic={},訓練資料替代占用符,同時keep_prob:0.5,50%的神經元#關閉,##防止過拟合
    train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})
#每疊代100次,做個訓練精度統計 (100次訓練結果的精确度統計)
#.eval()和run()的差別:The difference is in Operations vs. Tensors. Operations use run(#) and Tensors use eval().
    if i%100 == 0:  
        train_accuracy = accuracy.eval(feed_dict={x:batch[0], ys: batch[1], keep_prob: 1.0})
#keep_prob:1.0表示神經元100%輸出,沒有進行dropout正則化 
        print("step %d, training accuracy %g"%(i, train_accuracy))  
    print("test accuracy %g"%accuracy.eval(feed_dict={x: mnist.test.images, ys: mnist.test.labels, keep_prob: 1.0}))
           

總結:到這一步,發現自身幾個問題:卷積和池化概念不熟,卷積計算不熟。下一步加深理論學習和熟悉tensorflow運作機制了解

繼續閱讀