經典卷積神經網絡
說明:本文和上一篇Tensorflow基礎内容是同系列課程摘錄的筆記,僅供個人學習使用,不確定一定嚴謹正确。
一、LeNet(1998)
- 兩層卷積計算層,三層全連接配接
- 卷積網絡開篇之作,共享卷積核,減少網絡參數
二、AlexNet(2012)
- Top5錯誤率16.4%
- 五層卷積計算層,三層全連接配接
- 使用relu激活函數,提升訓練速度,使用Dropout函數,緩解過拟合
三、VGGNet(2014)
- Top5錯誤率7.3%
- 13層卷積層3層全連接配接層
- 小尺寸卷積核減小參數,網絡結構規整,适合并行加速
四、InceptionNet(2014)
- Top5錯誤率6.67%
- 1個3*3卷積層+四個Inception結構塊
- 一層内使用不同尺寸的卷積核,提升感覺力,使用批标準化,緩解梯度消失
五、ResNet(2015)
- Top5錯誤率3
- 層間殘差跳連,引入前方資訊,緩解模型退化,使神經網絡層數加深成為可能