天天看點

從貓說起——深度學習的過去、現在和未來

過去:從貓到狗

翻閱1982年第1期的《世界科學》雜志,看到這樣一則消息:“1981年10月17日,在瑞典的斯德哥摩爾城舉行的諾貝爾獎授獎大會上,美國加州理工學院的羅傑•握爾考特•斯佩裡(Roger Wolcott Sperry)博士和加拿大出生的美國人戴維•哈貝爾教授以及瑞典的托爾斯滕•韋塞爾分享了1981年諾貝爾生理學、醫學獎。斯佩裡因證明大腦兩半球的高度專門化以及許多較進階的功能集中在右半球而獲獎;哈貝爾和韋塞爾因研究視覺系統的資訊處理方面有所發現而獲獎。”

從貓說起——深度學習的過去、現在和未來

哈貝爾和韋塞爾的獲獎要歸功于“貓星人”,據說這個研究從1958年開始,在貓的後腦頭骨上,開了一個小洞,向洞裡插入電極,測量神經元的活躍程度,進而發現了一種神經元細胞——“方向選擇性細胞”,即後腦皮層的不同視覺神經元與瞳孔所受刺激之間确實存在某種對應關系。這一重要發現,激活了一度沉寂的神經網絡的研究。但是,人們不得不面對這樣的現實:神經網絡相關運算中耗費的運算量與神經元數目的平方成正比。基于硬體基礎,那個時候人們普遍認為潛在的龐大的計算量是幾乎無法實作的。

從貓說起——深度學習的過去、現在和未來

計算能力成了攔路虎,人們探尋真理的腳步一刻沒有停歇。同樣是1981年,IBM PC機中首次應用了8088晶片,開創了全新的微機時代。1985年INTEL推出了32位微處理器,而且制造技術也有了很大的進步。許多人對286、386、486機器還存有記憶,人類的計算能力伴随着摩爾定律在大踏步前進。關于神經網絡的算法也有了新的突破,1986年Hinton和David Rumelhard聯合在國際權威雜志《自然》上提出在神經網絡模型上運用反向傳播算法,大大降低了原來預計的運算量。

20世紀80年代末到90年代初,共享存儲器方式的大規模并行計算機又獲得了新的發展。1993年,Cray公司研制成功了第一台具有标志性的大規模并行計算機。我國的銀河系列并行計算機,在國際上也獨樹一幟。新世紀以來,大規模并行計算機蓬勃發展,逐漸成為國際上高性能計算機的主流。

從貓說起——深度學習的過去、現在和未來

伴随着計算處理能力的提升,深度學習有了較快的發展,從結構上分為生成型深度結構、判别型深度結構、混合型深度結構三類。1989年,加拿大多倫多大學教授Yann LeCun就和他的同僚提出了卷積神經網絡,是一種包含卷積層的深度神經網絡模型,較早嘗試深度學習對圖像的處理。

2012年,Hinton建構深度神經網絡,在圖像識别問題上取得質的提升和突破。百度公司将相關最新技術成功應用到人臉識别和自然圖像識别問題,并推出相應的産品。同樣是從2012年,人們逐漸熟悉Google Brain團隊。2015年至2017年初,一隻“狗”引起世界的關注,人類圍棋大師們陷入沉思。

從貓說起——深度學習的過去、現在和未來

現在:深度學習有多深

回答這個問題之前,讓我們回顧一下機器學習。以使用決策樹、推導邏輯規劃、聚類、貝葉斯網絡等傳統算法對結構化的資料進行分析為基礎,對真實世界中的事件作出決策和預測,通常被稱為機器學習。比如無人駕駛汽車識别交通标志,這種機器視覺就是典型的機器學習。但是在特定的天氣條件下,算法不靈,機器學習就有了局限。

深度學習在機器學習的基礎上又前進了一步,同樣是從資料中提取知識來解決和分析問題,深度學習使用的是人工神經網絡算法,允許發現中間表示來擴充标準機器學習,這些中間表示能夠解決更複雜的問題,并且以更高的精度、更少的觀察和更不麻煩的手動調諧,潛在地解決其它問題。

最常見的深度學習類型是前饋深層神經網絡(DNN),其使用大量的互連處理單元層從原始輸入資料中“發現”适當的中間呈現。DNN提供了一個強大的架構,可應用于各種業務問題。例如可以分析視網膜掃描以“辨識”哪些模式訓示健康或患病視網膜(并訓示特定疾病)。“辨識”過程依賴于強力的高性能計算。

從貓說起——深度學習的過去、現在和未來

根據Gartner的相關資料,深度學習已經在圖像識别、機器翻譯、語音識别、欺詐檢測、産品推薦等方面得到應用,如下表1、2:

表1:深度學習目前部分相關領域及案例

從貓說起——深度學習的過去、現在和未來

表2 深度學習目前的能力範圍

從貓說起——深度學習的過去、現在和未來

來源:Gartner(2017年1月)

Gartner估計,從初創公司到技術巨頭,全球有2,000多家供應商正在推出深度學習相關産品。但是,目前的深度學習有其一定的局限:

1、深度學習技術是啟發式的。深度學習是否會解決一個給定的問題是不清楚的,根本沒有數學理論可以表明一個“足夠好”的深度學習解決方案是否存在。該技術是啟發式的,工作即代表有效。

2、深度學習技術的不可預期性。深度學習涉及隐藏層,在許多情況下,即使是領先的科學家也不能解釋這些層面發生了什麼,這樣的“黑盒子” 可能對解釋甚至接受結果造成問題,有時甚至破壞合規性和道德性。

3、深度學習系統化運用不成熟。沒有适合所有行業且通用的深度學習,企業想要建立自己的解決方案,目前必須混合和比對可用的工具,并跟上新軟體的快速出現。

4、部分錯誤的結果造成不良影響。深度學習目前不能以100%的精度解決問題。深度學習延續了較淺層機器學習的大多數風險和陷阱。

5、學習速度不盡如人意。一個兩歲的孩子可以在被告知幾次後識别大象,而深度學習系統可能需要成千上萬的例子,并且“看”這些例子數十萬或數百萬次,才能成功。

6、目前的範圍比較狹窄。比如,AlphaGo系統學會了在大師水準線上玩Go,也隻會玩Go。應用于任何其他遊戲(甚至更簡單)時,系統将徹底失敗。

未來:從GPU到?PU

深度學習是人工智能發展的主要驅動力。目前主要是在弱人工智能的發展中産生重要作用,主要是特定的行業應用,如上文提到的圖像識别、自動駕駛和機器翻譯等。但是要支撐和實作和人腦類似的強人工智能,OSTP(美國白宮科技政策辦公室)認為至少在幾十年内無法實作。除了上文提及的資料不足、相關算法需要改進外,對高性能計算的追求就是一個長期的持續的根本任務。

從貓說起——深度學習的過去、現在和未來

GPU這個概念在目前的“讀圖時代”,很多人并不陌生。GPU是相對于CPU的一個概念,由于在現代的計算機中(特别是家用系統,遊戲的發燒友)圖形的處理變得越來越重要,需要一個專門的圖形的核心處理器,這就是GPU。GPU對于深度學習技術非常重要。随着技術的演進,核心處理器也将更新疊代。例如,谷歌大腦團隊正在設計TPU(深度學習晶片),這是針對深度神經網絡運算的改進版的處理器。

從貓說起——深度學習的過去、現在和未來

量子計算至少在未來十年内不會影響深度學習。谷歌大腦團隊的科學家Jeff Dean認為,人的大腦不是量子計算機,量子計算幾乎不會對深度學習造成特别明顯的影響,特别是在中短期内(比如未來十年)。但是,未來的未來,量子計算是不是能根本上改變深度學習,這誰也說不準。

原文釋出時間為:2017-03-30

本文作者:孟海華

本文來自雲栖社群合作夥伴“資料派THU”,了解相關資訊可以關注“資料派THU”微信公衆号

繼續閱讀