天天看點

深度學習(二)~常用神經網絡結構常用神經網絡結構

深度學習(二)~常用神經網絡結構

  • 常用神經網絡結構
    • 1. 前饋網絡
      • (1) 全連接配接神經網絡(FNN)
      • (2)卷積神經網絡(CNN)
    • 2. 記憶網絡
      • (1) 循環神經網絡(RNN)
      • (2) LSTM
      • (3) GRU
    • 3. 圖網絡

常用神經網絡結構

1. 前饋網絡

特點: 每一層神經元接收前一層神經元的輸出,相當于有向無環圖

實作方式:前饋網絡包括全連接配接前饋網絡和卷積神經網絡

(1) 全連接配接神經網絡(FNN)

**特點:**每一層是全連接配接層—即每一層的每個神經元與上一層所有神經元都有連接配接;

作用:

**a. ** 多個全連接配接層可以從不同角度提取特征;

**b. ** 全連接配接層作為輸出層有分類和數值預測的功能;也經常用于卷積神經網絡。

**缺點:**權重多,計算量大。

**應用:**所有的神經網絡均可以利用

(2)卷積神經網絡(CNN)

【卷積神經網絡的層級結構】

資料輸入層

卷積層: 每個神經元看做一個濾波器(filter),每個濾波器隻關注一個特征,比如垂直邊緣,水準邊緣,顔色,紋理等等,這些所有神經元加起來就好比就是整張圖像的特征提取器集合  

ReLU激勵層: 非線性映射

池化層: 池化層夾在連續的卷積層中間, 用于壓縮資料和參數的量如壓縮圖像,減小過拟合

全連接配接層: 對空間排列的特征化成一維的向量

優點: 共享卷積核,對高維資料處理無壓力

缺點: 難解釋(我們并不知道沒個卷積層到底提取到的是什麼特征,而且神經網絡本身就是一種難以解釋的“黑箱模型”)

應用: 人臉識别、圖像識别

2. 記憶網絡

**特點:**對前期學習的資訊有記憶功能,可用有向循環圖或無向圖表示

**實作方式:**記憶網絡包括循環神經網絡、玻爾茲曼機、受限玻爾茲曼機等

**應用:**常用于文本填充、時間序列、語音識别等序列資料

(1) 循環神經網絡(RNN)

RNN的訓練算法為:BPTT

【BPTT的基本原理】

a. 前向計算每個神經元的輸出值;

b. 反向計算每個神經元的誤差項值;

c. 計算每個權重的梯度。

d. 最後再用随機梯度下降算法更新權重

(2) LSTM

與傳統的循環神經網絡相比,LSTM采用三門機制,輸入門、遺忘門以及輸出門和一個内部記憶單元。

輸入門: 決定從目前步驟添加哪些資訊

遺忘門: 控制前一步記憶單元中的資訊有多大程度被遺忘掉

輸出門: 決定下一個隐藏狀态應該是什麼

(3) GRU

GRU是在LSTM上進行簡化而得到的,隻有兩個門,分别為更新門和重置門

重置門: 候選隐含狀态使用了重置門來控制過去有多少資訊被遺忘

更新門: 控制過去的隐含狀态在目前時刻的重要性

3. 圖網絡

特點: 可有向可無向,前饋網絡與記憶網絡的輸入為向量或向量序列,圖網絡的輸入為圖結構資料如知識圖譜、社交網絡、分子網絡等

實作方式: 圖網絡包括圖卷積網絡、圖注意力網絡、消息傳遞神經網絡

**總結:**每一種神經網絡各有優點,在具體的場景中,根據不用的應用選擇不同的網絡,也可能會同時用到三種網絡搭建更複雜的網絡。

繼續閱讀