卷積神經網絡大總結(個人了解)
神經網絡
1、概念:從功能他們模仿真實資料
2、結構:輸入層、隐藏層、輸出層。其中隐藏層要有的參數:權重、偏置、激勵函數、過拟合
3、功能:能通過模仿,進而學到事件
其中過拟合:電腦太過于自信,想把所有的資料都模拟下來。但是這并不符合我們的實際的需求
激勵函數:激活某一些參數
卷積神經網絡:
1、一般的結構:輸入資料、卷積層、池化層、卷積層、池化層、全連接配接層、全連接配接層、誤差分析、參數優化、顯示精确度
2、每一個層的要求:
輸入資料:類型:[-1(表示能接受任意張圖檔),圖檔的長度,圖檔的寬度、圖檔的灰階級]
卷積層 :fittler濾波器:意義:掃描圖檔,得到一個數值。類型:[卷積核的長度,卷積核的寬度,圖檔的灰階值,特征映射值(厚度)]其中的1,1是給定。卷積函數:輸入資料、濾波器、步長(類型[1,圖檔左右移動的步數,圖檔上下移動的步數,1],padding=”掃描的方式”
卷積得到的資料,可以用tf.nn.Rule的激勵函數激勵
池化層:池化函數的參數:卷積層1激勵後的資料,池化視窗的大小(shape[1,長,寬,1],步長(shape[1,向左右移動的步數,上下移動的步數,1],padding=“掃描的方式”
卷積層2:參數個數一樣,但是輸入的資料是池化1輸出的資料,卷積核我們也可以定義,其他的都一樣
池化層:變化最大的是輸入的資料數卷積層2輸出的資料
全連接配接神經元:輸入的資料是池化2輸出的資料,要記得重新設定類型。隐藏層:權重,偏置。。。隐藏層輸出的資料可以過拟合和tf.nn.relu激勵函數
全連接配接神經元2:類似全連接配接神經元。但是這一層的輸出資料要用到tf.nn.softmax激勵函數
誤差分析、優化:cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_data * tf.log(prediction),
reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)交叉商
計算精确值函數
其他:
1、其中每一層的卷積層和池化層都是講特征映射的更加詳細,具體有用
2、池化層在實際應用中用來抵抗輸入的輕微形變或者位移
3、全連通層的工作原理是根據之前其它層的輸出,檢測哪些特征與特定的 類别相匹