天天看點

【CV論文閱讀】Network in Network

目的:

通過用mlpconv層來替代傳統的conv層,可以學習到更加抽象的特征。傳統卷積層通過将前一層進行了線性組合,然後經過非線性激活得到(glm),作者認為傳統卷積層的假設是基于特征的線性可分。而mlpconv層使用多層感覺機,是一個深層的網絡結構,可以近似任何非線性的函數。在網絡中高層的抽象特征代表它對于相同concept的不同表現具有不變性(by abstraction we mean that the feature is invariant to the variants of the same concept)。微小的神經網絡在輸入的map上滑動,它的權值是共享的,而且mlpconv層同樣可以使用bp算法學習到其中的參數。傳統卷積層(左)與mlpcon層(右)對比如下:

【CV論文閱讀】Network in Network

實作:

對于非線性激活函數,例如一個relu函數有

【CV論文閱讀】Network in Network

,k代表通道下标,xij表示以像素(i,j)為中心的輸入區域。在mlpconv層中,每一個神經元計算的規則為

【CV論文閱讀】Network in Network

n代表網絡的層次。在上述b圖可以看到,對于每一個神經元,生成的隻有單個輸出,而輸入是多元(可以了解為多通道,在網絡中的每一層是一個1*k的向量),可以把整個過程看作是一個1*1*k的卷積層作用在k通道上。在後續的一些論文中,常用到這樣的方法來對輸入進行降維(不是對圖像的輸入空間,而是通道降維),這樣的非抽象的過程可以很好地把多元資訊壓縮。

使用全局平均池化層代替fc層:

使用這樣的微網絡的結構,可以抽象出更加好的局部特征,使得特征圖與類别有一緻性。在softmax的前一層去除fc層,則在這一層沒有參數的優化,可以減少計算的消耗,降低這一層的過拟合。

過程是這樣的:對于每一個特征圖計算它的平均數,然後把這些平均數組成一個特征向量,輸入到後續的softmax層中。

如下圖:

【CV論文閱讀】Network in Network

總結nin的優點:

(1)更好的局部抽象

(2)去除全連接配接層,更少的參數

(3)更小的過拟合

繼續閱讀