目的:
通過用mlpconv層來替代傳統的conv層,可以學習到更加抽象的特征。傳統卷積層通過将前一層進行了線性組合,然後經過非線性激活得到(glm),作者認為傳統卷積層的假設是基于特征的線性可分。而mlpconv層使用多層感覺機,是一個深層的網絡結構,可以近似任何非線性的函數。在網絡中高層的抽象特征代表它對于相同concept的不同表現具有不變性(by abstraction we mean that the feature is invariant to the variants of the same concept)。微小的神經網絡在輸入的map上滑動,它的權值是共享的,而且mlpconv層同樣可以使用bp算法學習到其中的參數。傳統卷積層(左)與mlpcon層(右)對比如下:

實作:
對于非線性激活函數,例如一個relu函數有
,k代表通道下标,xij表示以像素(i,j)為中心的輸入區域。在mlpconv層中,每一個神經元計算的規則為
n代表網絡的層次。在上述b圖可以看到,對于每一個神經元,生成的隻有單個輸出,而輸入是多元(可以了解為多通道,在網絡中的每一層是一個1*k的向量),可以把整個過程看作是一個1*1*k的卷積層作用在k通道上。在後續的一些論文中,常用到這樣的方法來對輸入進行降維(不是對圖像的輸入空間,而是通道降維),這樣的非抽象的過程可以很好地把多元資訊壓縮。
使用全局平均池化層代替fc層:
使用這樣的微網絡的結構,可以抽象出更加好的局部特征,使得特征圖與類别有一緻性。在softmax的前一層去除fc層,則在這一層沒有參數的優化,可以減少計算的消耗,降低這一層的過拟合。
過程是這樣的:對于每一個特征圖計算它的平均數,然後把這些平均數組成一個特征向量,輸入到後續的softmax層中。
如下圖:
總結nin的優點:
(1)更好的局部抽象
(2)去除全連接配接層,更少的參數
(3)更小的過拟合