天天看點

Going Deeper with Convolutions-Inception網絡

文章位址:http://openaccess.thecvf.com/CVPR2015.py

參考翻譯:Tyan  https://github.com/SnailTyan/deep-learning-papers-translation

文中ppt來源于吳恩達視訊課程:http://mooc.study.163.com/learn/2001281004?tid=2001392030#/learn/content?type=detail&id=2001729332

以下内容是結合原文和參考翻譯的一些總結。

摘要:谷歌在 ImageNet 大規模視覺識别挑戰賽2014(ILSVRC14)上提出了一種新網絡,就是Inception。這個架構的主要特點是提高了網絡内部計算資源的使用率。通過精心的手工設計,我們在增加了網絡深度和廣度的同時保持了計算預算不變。為了優化品質,架構的設計以赫布理論和多尺度處理直覺為基礎。我們在 ILSVRC14 送出中應用的一個特例被稱為GoogLeNet,一個22層的深度網絡,其品質在分類和檢測的背景下進行了評估。

1.介紹

過去三年中,由于深度學習和卷積網絡的發展[10],我們的目标分類和檢測能力得到了顯著提高。一個令人鼓舞的消息是,大部分的進步不僅僅是更強大硬體、更大資料集、更大模型的結果,而主要是新的想法、算法和網絡結構改進的結果。例如,ILSVRC 2014競賽中最靠前的輸入除了用于檢測目的的分類資料集之外,沒有使用新的資料資源。我們在ILSVRC 2014中的GoogLeNet送出實際使用的參數隻有兩年前Krizhevsky等人[9]獲勝結構參數的1/12,而結果明顯更準确。在目标檢測前沿,最大的收獲不是來自于越來越大的深度網絡的簡單應用,而是來自于深度架構和經典計算機視覺的協同,像Girshick等人[6]的R-CNN算法那樣。

另一個顯著因素是随着移動和嵌入式裝置的推動,我們的算法的效率很重要——尤其是它們的電力和記憶體使用。值得注意的是,正是包含了這個因素的考慮才得出了本文中呈現的深度架構設計,而不是單純的為了提高準确率。對于大多數實驗來說,模型被設計為在一次推斷中保持15億乘加的計算預算,是以最終它們不是單純的學術好奇心,而是能在現實世界中應用,甚至是以合理的代價在大型資料集上使用。

在本文中,我們将關注一個高效的計算機視覺深度神經網絡架構,代号為Inception。它的名字 來源于the Network in network paper by Lin et al [12] in conjunction with the famous “we need to go deeper” internet meme [1].對于名字的來源,我在文中最後給出,挺有意思的。在我們的案例中,單詞“deep”用在兩個不同的含義中:首先,在某種意義上,我們以“Inception module”的形式引入了一種新層次的組織方式,在更直接的意義上增加了網絡的深度。一般來說,可以把Inception模型看作論文[12]的邏輯頂點同時從Arora等人[2]的理論工作中受到了鼓舞和引導。這種架構的好處在ILSVRC 2014分類和檢測挑戰賽中通過實驗得到了驗證,它明顯優于目前的最好水準。

2.相關工作

從LeNet-5 [10]開始,卷積神經網絡(CNN)通常有一個标準結構——堆疊的卷積層(後面可以選擇有對比歸一化和最大池化)後面是一個或更多的全連接配接層。這個基本設計的變種在圖像分類著作流行,并且目前為止在MNIST,CIFAR和更著名的ImageNet分類挑戰賽中[9, 21]的已經取得了最佳結果。對于更大的資料集例如ImageNet來說,最近的趨勢是增加層的數目[12]和層的大小[21, 14],同時使用dropout[7]來解決過拟合問題。

我:其實就是說并沒有在CNN上做過大的變化,無非就是添加層數和尺寸。

盡管擔心最大池化層會引起準确空間資訊的損失,但與[9]相同的卷積網絡結構也已經成功的應用于定位[9, 14],目标檢測[6, 14, 18, 5]和行人姿态估計[19]。

受靈長類視覺皮層神經科學模型的啟發,Serre等人[15]使用了一系列固定的不同大小的Gabor濾波器來處理多尺度。我們使用一個了類似的政策。然而,與[15]的固定的2層深度模型相反,Inception結構中所有的濾波器是學習到的。此外,Inception層重複了很多次,在GoogLeNet模型中得到了一個22層的深度模型。

Network-in-Network是Lin等人[12]為了增加神經網絡表現能力而提出的一種方法。在他們的模型中,網絡中添加了額外的1 × 1卷積層,增加了網絡的深度。我們的架構中大量的使用了這個方法。但是,在我們的設定中,1 × 1卷積有兩個目的:最關鍵的是,它們主要是用來作為降維子產品來移除卷積瓶頸,否則将會限制我們網絡的大小。這不僅允許了深度的增加,而且允許我們網絡的寬度增加但沒有明顯的性能損失。

最後,目前最好的目标檢測是Girshick等人[6]的基于區域的卷積神經網絡(R-CNN)方法。R-CNN将整個檢測問題分解為兩個子問題:利用低層次的信号例如顔色,紋理以跨類别的方式來産生目标位置候選區域,然後用CNN分類器來識别那些位置上的對象類别。這樣一種兩個階段的方法利用了低層特征分割邊界框的準确性,也利用了目前的CNN非常強大的分類能力。我們在我們的檢測送出中采用了類似的方式,但探索增強這兩個階段,例如對于更高的目标邊界框召回使用多盒[5]預測,并融合了更好的邊界框候選區域分類方法。

最後我把inception結構通以往相似的結構叙述以黃色标出。

3. 動機和高層思考

提高深度神經網絡性能最直接的方式是增加它們的尺寸。這不僅包括增加深度:網絡層次的數目,也包括它的寬度:每一層的單元數目。這是一種訓練更高品質模型容易且安全的方法,尤其是在可獲得大量标注的訓練資料的情況下。但是這個簡單方案有兩個主要的缺點。

一是更大的尺寸通常意味着更多的參數,這會使增大的網絡更容易過拟合,尤其是在訓練集的标注樣本有限的情況下。這是一個主要的瓶頸,因為要獲得強标注資料集費時費力且代價昂貴,經常需要專家評委在各種細粒度的視覺類别進行區分,例如圖1中顯示的ImageNet中的類别(甚至是1000類ILSVRC的子集)。

Going Deeper with Convolutions-Inception網絡

圖1: ILSVRC 2014分類挑戰賽的1000類中兩個不同的類别。區分這些類别需要領域知識

均勻增加網絡尺寸的另一個缺點是計算資源使用的顯著增加。例如,在一個深度視覺網絡中,如果兩個卷積層相連,它們的濾波器數目的任何均勻增加都會引起計算量平方式的增加。如果增加的能力使用時效率低下(例如,如果大多數權重結束時接近于0),那麼會浪費大量的計算能力。由于計算預算總是有限的,計算資源的有效分布更偏向于尺寸無差别的增加,即使主要目标是增加性能的品質。

簡單來講就是缺少資料标簽和計算能力不夠

解決這兩個問題的一個基本的方式就是引入稀疏性并将全連接配接層替換為稀疏的全連接配接層,甚至是卷積層。除了模仿生物系統之外,由于Arora等人[2]的開創性工作,這也具有更堅固的理論基礎優勢。他們的主要成果說明如果資料集的機率分布可以通過一個大型稀疏的深度神經網絡表示,則最優的網絡拓撲結構可以通過分析前一層激活的相關性統計和聚類高度相關的神經元來一層層的建構。雖然嚴格的數學證明需要在很強的條件下,但事實上這個聲明與著名的赫布理論産生共鳴——神經元一起激發,一起連接配接——實踐表明,基礎概念甚至适用于不嚴格的條件下。

遺憾的是,當碰到在非均勻的稀疏資料結構上進行數值計算時,現在的計算架構效率非常低下。即使算法運算的數量減少100倍,查詢和緩存丢失上的開銷仍占主導地位:切換到稀疏矩陣可能是不可行的。随着穩定提升和高度調整的數值庫的應用,差距仍在進一步擴大,數值庫要求極度快速密集的矩陣乘法,利用底層的CPU或GPU硬體[16, 9]的微小細節。非均勻的稀疏模型也要求更多的複雜工程和計算基礎結構。目前大多數面向視覺的機器學習系統通過采用卷積的優點來利用空域的稀疏性。然而,卷積被實作為對上一層塊的密集連接配接的集合。為了打破對稱性,提高學習水準,從論文[11]開始,ConvNets習慣上在特征次元使用随機的稀疏連接配接表,然而為了進一步優化并行計算,論文[9]中趨向于變回全連接配接。目前最新的計算機視覺架構有統一的結構。更多的濾波器和更大的批大小要求密集計算的有效使用。

這提出了下一個中間步驟是否有希望的問題:一個架構能利用濾波器水準的稀疏性,正如理論所認為的那樣,但能通過利用密集矩陣計算來利用我們目前的硬體。稀疏矩陣乘法的大量文獻(例如[3])認為對于稀疏矩陣乘法,将稀疏矩陣聚類為相對密集的子矩陣會有更佳的性能。在不久的将來會利用類似的方法來進行非均勻深度學習架構的自動建構,這樣的想法似乎并不牽強。

Inception架構開始是作為案例研究,用于評估一個複雜網絡拓撲建構算法的假設輸出,該算法試圖近似[2]中所示的視覺網絡的稀疏結構,并通過密集的、容易獲得的元件來覆寫假設結果。盡管是一個非常投機的事情,但與基于[12]的參考網絡相比,早期可以觀測到适度的收益。随着一點點調整加寬差距,作為[6]和[5]的基礎網絡,Inception被證明在定位上下文和目标檢測中尤其有用。有趣的是,雖然大多數最初的架構選擇已被質疑并分離開進行全面測試,但結果證明它們是局部最優的。然而必須謹慎:盡管Inception架構在計算機上領域取得成功,但這是否可以歸因于建構其架構的指導原則仍是有疑問的。確定這一點将需要更徹底的分析和驗證。

4.架構細節

 Inception架構的主要想法是考慮怎樣近似卷積視覺網絡的最優稀疏結構并用容易獲得的密集元件進行覆寫。注意假設轉換不變性,這意味着我們的網絡将以卷積建構塊為基礎。我們所需要做的是找到最優的局部構造并在空間上重複它。Arora等人[2]提出了一個層次結構,其中應該分析最後一層的相關統計并将它們聚內建具有高相關性的單元組。這些聚類形成了下一層的單元并與前一層的單元連接配接。我們假設較早層的每個單元都對應輸入層的某些區域,并且這些單元被分成濾波器組。在較低的層(接近輸入的層)相關單元集中在局部區域。是以,如[12]所示,我們最終會有許多聚類集中在單個區域,它們可以通過下一層的1×1卷積層覆寫。然而也可以預期,将存在更小數目的在更大空間上擴充的聚類,其可以被更大塊上的卷積覆寫,在越來越大的區域上塊的數量将會下降。為了避免塊校正的問題,目前Inception架構形式的濾波器的尺寸僅限于1×1、3×3、5×5,這個決定更多的是基于便易性而不是必要性。這也意味着提出的架構是所有這些層的組合,其輸出濾波器組連接配接成單個輸出向量形成了下一階段的輸入。另外,由于池化操作對于目前卷積網絡的成功至關重要,是以建議在每個這樣的階段添加一個替代的并行池化路徑應該也應該具有額外的有益效果(看圖2(a))。(個人認為這段話實在是深奧,小白的我看不懂,沒關系,我們pass掉)

Going Deeper with Convolutions-Inception網絡

---------------------------------------------------------------------------------------------------------------------------------------------

這是最開始的版本,這個圖我用吳恩達視訊課程的講解來說明,保證簡單易懂。接下來請往下看:

可以将上面的圖繪成下圖(手動繪制,尤其是這個長方體我繪了2小時才會得,實屬不易啊):

Going Deeper with Convolutions-Inception網絡

這就是一個Inception子產品。把所有的可能卷積以及池化層都融入一層裡。這樣就避免了手動去選擇和糾結到底該用多大的濾波器,因為這個子產品會自行選擇。最好把所有濾波器的結果連結在一起,是以需要統一尺寸,及要做相應的Padding,包括池化層。那麼為什麼要做這種雜糅呢?一個原因是可以減少計算成本。舉個例子:

Going Deeper with Convolutions-Inception網絡

上述的計算成本是1.2億次,計算方法為:我們最後得到的是28 x 28 x 32個數字,試想一下卷積的過程,每一個數字的來源都要經過5 x 5 x192次計算,最後把兩個相乘起來就好了。

接下來再看另一種變形需要多少計算成本:

Going Deeper with Convolutions-Inception網絡

可以看出,在5 x 5的卷積之前先做1 x 1 計算量減少了10倍。

-----------------------------------------------------------------------------------------------------------------------------------------

繼續翻譯:

由于這些“Inception子產品”在彼此的頂部堆疊,其輸出相關統計必然有變化:由于較高層會捕獲較高的抽象特征,其空間集中度預計會減少。這表明随着轉移到更高層,3×3和5×5卷積的比例應該會增加。

上述子產品的一個大問題是在具有大量濾波器的卷積層之上,即使适量的5×5卷積也可能是非常昂貴的,至少在這種樸素形式中有這個問題。一旦池化單元添加到混合中,這個問題甚至會變得更明顯:輸出濾波器的數量等于前一階段濾波器的數量。池化層輸出和卷積層輸出的合并會導緻這一階段到下一階段輸出數量不可避免的增加。雖然這種架構可能會覆寫最優稀疏結構,但它會非常低效,導緻在幾個階段内計算量爆炸。(這個問題不是很明白)

這導緻了Inception架構的第二個想法:在計算要求會增加太多的地方,明智地減少次元。這是基于嵌入的成功:甚至低維嵌入可能包含大量關于較大圖像塊的資訊。然而嵌入以密集、壓縮形式表示資訊并且壓縮資訊更難處理。這種表示應該在大多數地方保持稀疏(根據[2]中條件的要求】)并且僅在它們必須彙總時才壓縮信号。也就是說,在昂貴的3×3和5×5卷積之前,1×1卷積用來計算降維。除了用來降維之外,它們也包括使用線性修正單元使其兩用。最終的結果如圖2(b)所示:

Going Deeper with Convolutions-Inception網絡

這個圖再換一種方法了解它,如下:

Going Deeper with Convolutions-Inception網絡

這裡池化層最後要加做一個1 x 1的卷積,保持次元一緻。這就是最終版本的Inception子產品。

通常,Inception網絡是一個由上述類型的子產品互相堆疊組成的網絡,偶爾會有步長為2的最大池化層将網絡分辨率減半。出于技術原因(訓練過程中記憶體效率),隻在更高層開始使用Inception子產品而在更低層仍保持傳統的卷積形式似乎是有益的。這不是絕對必要的,隻是反映了我們目前實作中的一些基礎結構效率低下。(紅線部分不了解)

該架構的一個有用的方面是它允許顯著增加每個階段的單元數量,而不會在後面的階段出現計算複雜度不受控制的爆炸。這是在尺寸較大的塊進行昂貴的卷積之前通過普遍使用降維實作的。此外,設計遵循了實踐直覺,即視覺資訊應該在不同的尺度上處理然後聚合,為的是下一階段可以從不同尺度同時抽象特征。

計算資源的改善使用允許增加每個階段的寬度和階段的數量,而不會陷入計算困境。可以利用Inception架建構立略差一些但計算成本更低的版本。我們發現所有可用的控制允許計算資源的受控平衡,導緻網絡比沒有Inception結構的類似執行網絡快3—10倍,但是在這一點上需要仔細的手動設計。

5. GoogLeNet

通過“GoogLeNet”這個名字,我們提到了在ILSVRC 2014競賽的送出中使用的Inception架構的特例。我們也使用了一個稍微優質的更深更寬的Inception網絡,但将其加入到組合中似乎隻稍微提高了結果。我們忽略了該網絡的細節,因為經驗證據表明确切架構的參數影響相對較小。表1說明了競賽中使用的最常見的Inception執行個體。這個網絡(用不同的圖像塊采樣方法訓練的)使用了我們組合中7個模型中的6個。

Going Deeper with Convolutions-Inception網絡

這個圖同後面的網絡結構圖一起看就容易懂了,主要是告訴了每層的濾波器數量以及每層的參數量和開銷。

所有的卷積都使用了修正線性激活,包括Inception子產品内部的卷積。在我們的網絡中感受野是在均值為0的RGB顔色空間中,大小是224×224(輸入尺寸)。“#3×3 reduce”和“#5×5 reduce”表示在3×3和5×5卷積之前,降維層使用的1×1濾波器的數量。在pool proj列可以看到内置的最大池化之後,投影層中1×1濾波器的數量。所有的這些降維/投影層也都使用了線性修正激活。

網絡的設計考慮了計算效率和實用性,是以推斷可以單獨的裝置上運作,甚至包括那些計算資源有限的裝置,尤其是低記憶體占用的裝置。當隻計算有參數的層時,網絡有22層(如果我們也計算池化層是27層)。建構網絡的全部層(獨立建構塊)的數目大約是100。确切的數量取決于機器學習基礎設施對層的計算方式。分類器之前的平均池化是基于[12]的,盡管我們的實作有一個額外的線性層。線性層使我們的網絡能很容易地适應其它的标簽集,但它主要是為了友善使用,我們不期望它有重大的影響。我們發現從全連接配接層變為平均池化,提高了大約

top-1 0.6%

的準确率,然而即使在移除了全連接配接層之後,dropout的使用還是必不可少的。

給定深度相對較大的網絡,有效傳播梯度反向通過所有層的能力是一個問題。在這個任務上,更淺網絡的強大性能表明網絡中部層産生的特征應該是非常有識别力的。通過将輔助分類器添加到這些中間層,可以期望較低階段分類器的判别力。這被認為是在提供正則化的同時克服梯度消失問題。這些分類器采用較小卷積網絡的形式,放置在Inception (4a)和Inception (4b)子產品的輸出之上。在訓練期間,它們的損失以折扣權重(輔助分類器損失的權重是0.3)加到網絡的整個損失上。在推斷時,這些輔助網絡被丢棄。後面的控制實驗表明輔助網絡的影響相對較小(約0.5),隻需要其中一個就能取得同樣的效果。

包括輔助分類器在内的附加網絡的具體結構如下:

  • 一個濾波器大小5×5,步長為3的平均池化層,導緻(4a)階段的輸出為4×4×512,(4d)的輸出為4×4×528。
  • 具有128個濾波器的1×1卷積,用于降維和修正線性激活。
  • 一個全連接配接層,具有1024個單元和修正線性激活。
  • A dropout layer with 70% ratio of dropped outputs.
  • 使用帶有softmax損失的線性層作為分類器(作為主分類器預測同樣的1000類,但在推斷時移除)。
Going Deeper with Convolutions-Inception網絡

6. 訓練方法

 GoogLeNet網絡使用DistBelief[4]分布式機器學習系統進行訓練,該系統使用适量的模型和資料并行。盡管我們僅使用一個基于CPU的實作,但粗略的估計表明GoogLeNet網絡可以用更少的高端GPU在一周之内訓練到收斂,主要的限制是記憶體使用。我們的訓練使用異步随機梯度下降,動量參數為0.9[17],固定的學習率計劃(每8次周遊下降學習率4%)。Polyak平均[13]在推斷時用來建立最終的模型。

 圖像采樣方法在過去幾個月的競賽中發生了重大變化,并且已收斂的模型在其他選項上進行了訓練,有時還結合着超參數的改變,例如丢棄和學習率。是以,很難對訓練這些網絡的最有效的單一方式給出明确指導。讓事情更複雜的是,受[8]的啟發,一些模型主要是在相對較小的裁剪圖像進行訓練,其它模型主要是在相對較大的裁剪圖像上進行訓練。然而,一個經過驗證的方案在競賽後工作地很好,包括各種尺寸的圖像塊的采樣,它的尺寸均勻分布在圖像區域的8%——100%之間,方向角限制為[34,43][34,43]之間。另外,我們發現Andrew Howard[8]的光度扭曲對于克服訓練資料成像條件的過拟合是有用的。

7. ILSVRC 2014分類挑戰賽設定和結果

ILSVRC 2014分類挑戰賽包括将圖像分類到ImageNet層級中1000個葉子結點類别的任務。訓練圖像大約有120萬張,驗證圖像有5萬張,測試圖像有10萬張。每一張圖像與一個實際類别相關聯,性能度量基于分類器預測的最高分。通常報告兩個數字:top-1準确率,比較實際類别和第一個預測類别,top-5錯誤率,比較實際類别與前5個預測類别:如果圖像實際類别在top-5中,則認為圖像分類正确,不管它在top-5中的排名。挑戰賽使用top-5錯誤率來進行排名。

我們參加競賽時沒有使用外部資料來訓練。除了本文中前面提到的訓練技術之外,我們在獲得更高性能的測試中采用了一系列技巧,描述如下。

  1. 我們獨立訓練了7個版本的相同的GoogLeNet模型(包括一個更廣泛的版本),并用它們進行了整體預測。這些模型的訓練具有相同的初始化(甚至具有相同的初始權重,由于監督)和學習率政策。它們僅在采樣方法和随機輸入圖像順序方面不同。
  2. 在測試中,我們采用比Krizhevsky等人[9]更積極的裁剪方法。具體來說,我們将圖像歸一化為四個尺度,其中較短次元(高度或寬度)分别為256,288,320和352,取這些歸一化的圖像的左,中,右方塊(在肖像圖檔中,我們采用頂部,中心和底部方塊)。對于每個方塊,我們将采用4個角以及中心224×224裁剪圖像以及方塊尺寸歸一化為224×224,以及它們的鏡像版本。這導緻每張圖像會得到4×3×6×2 = 144的裁剪圖像。前一年的輸入中,Andrew Howard[8]采用了類似的方法,經過我們實證驗證,其方法略差于我們提出的方案。我們注意到,在實際應用中,這種積極裁剪可能是不必要的,因為存在合理數量的裁剪圖像後,更多裁剪圖像的好處會變得很微小(正如我們後面展示的那樣)。
  3. softmax機率在多個裁剪圖像上和所有單個分類器上進行平均,然後獲得最終預測。在我們的實驗中,我們分析了驗證資料的替代方法,例如裁剪圖像上的最大池化和分類器的平均,但是它們比簡單平均的性能略遜。

在本文的其餘部分,我們分析了有助于最終送出整體性能的多個因素。

競賽中我們的最終送出在驗證集和測試集上得到了

top-5 6.67%

的錯誤率,在其它的參與者中排名第一。與2012年的SuperVision方法相比相對減少了56.5%,與前一年的最佳方法(Clarifai)相比相對減少了約40%,這兩種方法都使用了外部資料訓練分類器。表2顯示了過去三年中一些表現最好的方法的統計。

Going Deeper with Convolutions-Inception網絡

我們也分析報告了多種測試選擇的性能,當預測圖像時通過改變表3中使用的模型數目和裁剪圖像數目。

Going Deeper with Convolutions-Inception網絡

8. ILSVRC 2014檢測挑戰賽設定和結果

ILSVRC檢測任務是為了在200個可能的類别中生成圖像中目标的邊界框。如果檢測到的對象比對的它們實際類别并且它們的邊界框重疊至少50%(使用Jaccard索引),則将檢測到的對象記為正确。無關的檢測記為假陽性且被懲罰。與分類任務相反,每張圖像可能包含多個對象或沒有對象,并且它們的尺度可能是變化的。報告的結果使用平均精度均值(mAP)。GoogLeNet檢測采用的方法類似于R-CNN[6],但用Inception子產品作為區域分類器進行了增強。此外,為了更高的目标邊界框召回率,通過選擇搜尋[20]方法和多箱[5]預測相結合改進了區域生成步驟。為了減少假陽性的數量,超分辨率的尺寸增加了2倍。這将選擇搜尋算法的區域生成減少了一半。我們總共補充了200個來自多盒結果的區域生成,大約60%的區域生成用于[6],同時将覆寫率從92%提高到93%。減少區域生成的數量,增加覆寫率的整體影響是對于單個模型的情況平均精度均值增加了1%。最後,等分類單個區域時,我們使用了6個GoogLeNets的組合。這導緻準确率從40%提高到43.9%。注意,與R-CNN相反,由于缺少時間我們沒有使用邊界框回歸。

Going Deeper with Convolutions-Inception網絡

我們首先報告了最好檢測結果,并顯示了從第一版檢測任務以來的進展。與2013年的結果相比,準确率幾乎翻了一倍。所有表現最好的團隊都使用了卷積網絡。我們在表4中報告了官方的分數和每個隊伍的常見政策:使用外部資料、內建模型或上下文模型。外部資料通常是ILSVRC12的分類資料,用來預訓練模型,後面在檢測資料集上進行改善。一些團隊也提到使用定位資料。由于定位任務的邊界框很大一部分不在檢測資料集中,是以可以用該資料預訓練一般的邊界框回歸器,這與分類預訓練的方式相同。GoogLeNet輸入沒有使用定位資料進行預訓練。

在表5中,我們僅比較了單個模型的結果。最好性能模型是Deep Insight的,令人驚訝的是3個模型的集合僅提高了0.3個點,而GoogLeNet在模型內建時明顯獲得了更好的結果。

Going Deeper with Convolutions-Inception網絡

9. 總結

我們的結果取得了可靠的證據,即通過易獲得的密集構造塊來近似期望的最優稀疏結果是改善計算機視覺神經網絡的一種可行方法。相比于較淺且較窄的架構,這個方法的主要優勢是在計算需求适度增加的情況下有顯著的品質收益

我們的目标檢測工作雖然沒有利用上下文,也沒有執行邊界框回歸,但仍然具有競争力,這進一步顯示了Inception架構優勢的證據。

對于分類和檢測,預期通過更昂貴的類似深度和寬度的非Inception類型網絡可以實作類似品質的結果。 然而,我們的方法取得了可靠的證據,即轉向更稀疏的結構一般來說是可行有用的想法。這表明未來的工作将在[2]的基礎上以自動化方式建立更稀疏更精細的結構,以及将Inception架構的思考應用到其他領域。

名字的由來:你沒猜錯,确實和盜夢空間的電影有關,Inception是盜夢空間的英文名。因為電影裡有一句話,'we need to go deeper'。靈感就是這麼奇妙,同時,GoogLeNet,也是為了向之前的前輩(AleNet網絡制造者)緻敬。

最後引用黃堅作者的話結束這個網絡:

Google Inception Net 首次出現在ILSVRC 2014 的比賽中( 和VGGNet 同年),就以較大優勢取得了第一名。那屆比賽中的Inception Net 通常被稱為Inception V1,它最大的特點是控制了計算量和參數量的同時,獲得了非常好的分類性能一top-5錯誤率6.67%,隻有AlexNet 的一半不到。Inception V1有22 層深,比AlexNet 的8 層或者VGGNet 的19層還要更深。但其計算量隻有15億次浮點運算,同時隻有500萬的參數量,僅為AlexNet參數量(6000 萬) 的1/12,卻可以達到遠勝于AlexNet 的準确率,可以說是非常優秀并且非常實用的模型。Inception V1降低參數量的目的有兩點,第一,參數越多模型越龐大,需要供模型學習的資料量就越大,而目前高品質的資料非常昂貴; 第二,參數越多,耗費的計算資源也會更大。Inception V1參數少但效果好的原因除了模型層數更深、表達能力更強外,還有兩點:一是去除了最後的全連接配接層,用全局平均池化層(即将圖檔尺寸變為1x1)來取代它。全連接配接層幾乎占據了AlexNet 或VGGNet 中90%的參數量,而且會引起過拟合,去除全連接配接層後模型訓練更快并且減輕了過拟合。用全局平均池化層取代全連接配接層的做法借鑒了Network In Network (以下簡稱NIN )論文。二是Inception V1中精心設計的Inception Module 提高了參數的利用效率,其結構如圖6-10 所示。這一部分也借鑒了NIN 的思想,形象的解釋就是Inception Module 本身如同大網絡中的一個小網絡,其結構可以反複堆疊在一起形成大網絡。不過Inception V1比NIN 更進一步的是增加了分支網絡,NIN 則主要是級聯的卷積層和MLPConv 層。

繼續閱讀