天天看點

系列筆記 | 深度學習連載(1):神經網絡

神經網絡

自2012年CNN的imagenet 上的突破,以神經網絡網絡為基礎的深度學習開始風靡學界和工業界。我們來看一張圖檔,關于google 内部深度學習項目的數量。而且應用領域極廣,從Android 到 藥品發現,到youtube。

系列筆記 | 深度學習連載(1):神經網絡

我們從一起回顧下神經網絡的額前世今生:

• 1958: Perceptron (linear model)

• 1969: Perceptron has limitation

• 1980s: Multi-layer perceptron

• Do not have significant difference from DNN today

• 1986: Backpropagation

• Usually more than 3 hidden layers is not helpful

• 1989: 1 hidden layer is “good enough”, why deep?

• 2006: RBM initialization (breakthrough)

• 2009: GPU

• 2011: Start to be popular in speech recognition

• 2012: win ILSVRC image competition

深度學習是機器學習的一個分支,目前講是最重要的一個分支。 怎麼學好深度學些呢?

其實還是關鍵的三步:

1. 選擇神經網絡

2. 定義神經網絡的好壞

3. 選擇最好的參數集合

系列筆記 | 深度學習連載(1):神經網絡

以下是神經網絡的示意圖:

系列筆記 | 深度學習連載(1):神經網絡

所有的 θ 和 b 都在神經元内

1. 全連接配接網絡(Fully Connection)

系列筆記 | 深度學習連載(1):神經網絡

2. 深度網絡 DEEP

深度 = 很多層

系列筆記 | 深度學習連載(1):神經網絡

那麼有人就會問:

* 到底多少層深度合适?每層多個神經元?

答:這個看經驗和實驗的結果,不斷調整。

* 結構能被自動設定嗎?

答:可以通過進化網絡實作。

* 我們能自己設計網絡結構嗎?

答: CNN 就是設計出來的網絡結構。

3. 定義神經網絡的好壞Loss

我們以minist 數字識别為例,一組數字識别為例

系列筆記 | 深度學習連載(1):神經網絡
系列筆記 | 深度學習連載(1):神經網絡

4. 選擇最好的神經網絡(找到參數集)

核心方法:

* Gradient Descent

* BackPropagation

系列筆記 | 深度學習連載(1):神經網絡
系列筆記 | 深度學習連載(1):神經網絡

深度學習基本知識點了解到了,但是為什麼越Deep,效果會越好? 以前都是做類比思考,比如電路模型,但是近期的lpaper上在理論上有嚴格的證明,我們後續部落格會介紹

繼續閱讀