天天看點

李宏毅 -DeepLearning-2017-Why Deep

主講内容:CNN DNN的優勢!!!!!

CNN的layer層數越深,得到的word Error就越低,因為層數越深,參數就會越多,同時就會得到更好的結果,如圖:

李宏毅 -DeepLearning-2017-Why Deep

那麼我們拿兩個參數幾乎一樣的參數的cnn但是層數不一樣,一個是高瘦,另一個是矮胖的比較哪個更好呢?例如:

李宏毅 -DeepLearning-2017-Why Deep

圖中箭頭雙方模型的參數樹木是接近的。我們會發現,一層的矮胖的network的performance的能力是有限的,那麼怎麼來衡量呢???為什麼會這樣子呢??

李宏毅 -DeepLearning-2017-Why Deep
李宏毅 -DeepLearning-2017-Why Deep

我們在做dp的時候,其實就是在做~~模組化~~ 這樣的事情。

如何模組化分類呢??例如下面圖中的結構,利用矮胖類型,我們發現現實中長頭發的男生資料train data比較少,同樣相應的performance的結果也會比較差,那麼矮胖的類型就不拍适合呢,那麼我們怎麼利用模組化去避免這種因為種類資料的多少影響實驗結果的問題呢?

李宏毅 -DeepLearning-2017-Why Deep

1.通過資料的屬性切塊,運用一個basic classifier 男女分類,長短分類,我們就能看到短的資料集和長的資料集差不多,同樣,traindata通過分組得以權衡。

李宏毅 -DeepLearning-2017-Why Deep

每個classifier都共用同樣的model,這裡再求解時是把basic classifier當作一個model來使用,結論可以利用比較少的data去訓練好的model,每一個layer都是一個basic classier,每一層的classifier把前一層layer作為model,基本和複雜而已,模組化的任務是是由它自動從data中學習的,模組化把我們的事情變簡單了。

李宏毅 -DeepLearning-2017-Why Deep
李宏毅 -DeepLearning-2017-Why Deep

我們做deepLearning的原因是因為我們沒有足夠的deep data,進而需要通過學習來舉一反三,不然又足夠的database我們直接可以用table look up就行勒,那麼麻煩幹嘛!!!

deeplearning 在語音和圖像上的應用是非常好的!!

人類語言的架構:

phoneme是因素的意思

但是每次的因素的發音是不一樣的。

同樣的因素,不同的發音;;;==T ri-phone

李宏毅 -DeepLearning-2017-Why Deep

每個語音段出一個acoustic feature

李宏毅 -DeepLearning-2017-Why Deep

GMM

李宏毅 -DeepLearning-2017-Why Deep

deeplearning怎麼做的呢?

DNN是把所有的state用同一個model進行分類的,這個訓練輸入就是acoustic feature,輸出是他在每一個state上的機率

李宏毅 -DeepLearning-2017-Why Deep

DNN每個layer做的事情是:靠近input的layer(lower layer)先知道發音的方式的高低,然後比較靠近輸出的layer(high layer),來判斷是屬于哪個state,是以DNN是偵測發音的工具,所有的發音共用同一個DNN來偵測,這樣就做到模組化這件事情,所有的因素都征用同一個DNN的參數,這樣就簡約,這就叫做存同去乙,比較 每個點代表一個acoustic feature通過dnn變成下面這種分布,圖中的五個顔色表示五個母音,圖中五個母音的分布與架構上的布置是差不多的。

李宏毅 -DeepLearning-2017-Why Deep
李宏毅 -DeepLearning-2017-Why Deep

理論告訴了我們任何一個function都可以用一層的hind layer來描述,隻要參數足夠多,但是沒有告訴我們他的效率。

邏輯電路類比:

李宏毅 -DeepLearning-2017-Why Deep
李宏毅 -DeepLearning-2017-Why Deep

高維投影,低維展開

以前的語音處理與現在的DNN處理比較:

以前的GMM是用train學出來的,其他的都是人的經驗處理出來的函數,釘死的資料處理方法

李宏毅 -DeepLearning-2017-Why Deep
李宏毅 -DeepLearning-2017-Why Deep

手寫電視的例子

李宏毅 -DeepLearning-2017-Why Deep
李宏毅 -DeepLearning-2017-Why Deep

繼續閱讀