前言
Google Inception Net在2014年的 ImageNet Large Scale Visual Recognition Competition (ILSVRC)中取得第一名,該網絡以結構上的創新取勝,通過采用全局平均池化層取代全連接配接層,極大的降低了參數量,是非常實用的模型,一般稱該網絡模型為Inception V1。随後的Inception V2中,引入了Batch Normalization方法,加快了訓練的收斂速度。在Inception V3模型中,通過将二維卷積層拆分成兩個一維卷積層,不僅降低了參數數量,同時減輕了過拟合現象。
一、多少層?
Inception V3究竟有多少層呢?某書籍上說42層,某書籍上說46層。參考實作的源代碼,仔細數一數,應該是47層。
![](https://img.laitimes.com/img/__Qf2AjLwojIjJCLyojI0JCLicmbwxCdh1mcvZ2LcV2Zh1Wa9M3clN2byBXLzN3btg3P3p0VaNTODRGax02Y2plMMdXVq5kdjNDT5hTaNNjVXF2VWJjWoFzVhhjQYFWeSNzY2FlbixGbtNmdxknYwYFWZZXSqNmb5cFVsR2VZRHbyAlb1c0Y1V1RNFTREpFaWd1T3FFVNhXSqp1aSdFT5lFRNhXRq1UM4k3YsR2VZRHbyg1aGJjYzJEWkZHOXFWdVhUY6VzVZBHctxkeWJjWoFzVhRXUXlld4d0YxkTeMZTTINGMShUYvwlbj5yZtlmbkN3YuQnclZnbvN2Ztl2Lc9CX6MHc0RHaiojIsJye.jpg)
層次結構圖.png
5(前面)+
3(block1_module1)+3(block1_module2)+3(block1_module3)+
3(block2_module1)+5(block2_module2)+5(block2_module3)+5(block2_module4)+5(block2_module5)+
4(block3_module1)+3(block3_module2)+3(block3_module3)
= 47層
Tips:上面的這張層次結構圖出現在某些文章和書籍中,根據實作的源碼,标注的紅色方框處應該是5個卷積層,而不是4個。
二、詳細網絡結構
詳細的網絡結構及其子網絡結構如下。
總體結構圖 .png
block1_module1.png
block1_module2.png
block1_module3.png
block2_module1.png
block2_module2.png
block2_module3,4.png
block2_module5.png
block3_module1.png
block3_module2.png
block3_module3.png
作者:憶霜晨
連結:https://www.jianshu.com/p/3bbf0675cfce
來源:簡書
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。