天天看點

AI、機器學習和深度學習之間的差別是什麼?

有人說,人工智能(AI)是未來,人工智能是科幻,人工智能也是我們日常生活中的一部分。這些評價可以說都是正确的,就看你指的是哪一種人工智能。

今年早些時候,Google DeepMind的AlphaGo打敗了南韓的圍棋大師李世乭九段。在媒體描述DeepMind勝利的時候,将人工智能(AI)、機器學習(machine learning)和深度學習(deep learning)都用上了。這三者在AlphaGo擊敗李世乭的過程中都起了作用,但它們說的并不是一回事。

今天我們就用最簡單的方法——同心圓,可視化地展現出它們三者的關系和應用。

AI、機器學習和深度學習之間的差別是什麼?

如上圖,人工智能是最早出現的,也是最大、最外側的同心圓;其次是機器學習,稍晚一點;最内側,是深度學習,當今人工智能大爆炸的核心驅動。

五十年代,人工智能曾一度被極為看好。之後,人工智能的一些較小的子集發展了起來。先是機器學習,然後是深度學習。深度學習又是機器學習的子集。深度學習造成了前所未有的巨大的影響。

| 從概念的提出到走向繁榮

1956年,幾個計算機科學家相聚在達特茅斯會議(Dartmouth Conferences),提出了“人工智能”的概念。其後,人工智能就一直萦繞于人們的腦海之中,并在科研實驗室中慢慢孵化。之後的幾十年,人工智能一直在兩極反轉,或被稱作人類文明耀眼未來的預言;或者被當成技術瘋子的狂想扔到垃圾堆裡。坦白說,直到2012年之前,這兩種聲音還在同時存在。

過去幾年,尤其是2015年以來,人工智能開始大爆發。很大一部分是由于GPU的廣泛應用,使得并行計算變得更快、更便宜、更有效。當然,無限拓展的存儲能力和驟然爆發的資料洪流(大資料)的組合拳,也使得圖像資料、文本資料、交易資料、映射資料全面海量爆發。

讓我們慢慢梳理一下計算機科學家們是如何将人工智能從最早的一點點苗頭,發展到能夠支撐那些每天被數億使用者使用的應用的。

| 人工智能(Artificial Intelligence)——為機器賦予人的智能

AI、機器學習和深度學習之間的差別是什麼?

早在1956年夏天那次會議,人工智能的先驅們就夢想着用當時剛剛出現的計算機來構造複雜的、擁有與人類智慧同樣本質特性的機器。這就是我們現在所說的“強人工智能”(General AI)。這個無所不能的機器,它有着我們所有的感覺(甚至比人更多),我們所有的理性,可以像我們一樣思考。

人們在電影裡也總是看到這樣的機器:友好的,像星球大戰中的C-3PO;邪惡的,如終結者。強人工智能現在還隻存在于電影和科幻小說中,原因不難了解,我們還沒法實作它們,至少目前還不行。

我們目前能實作的,一般被稱為“弱人工智能”(Narrow AI)。弱人工智能是能夠與人一樣,甚至比人更好地執行特定任務的技術。例如,Pinterest上的圖像分類;或者Facebook的人臉識别。

這些是弱人工智能在實踐中的例子。這些技術實作的是人類智能的一些具體的局部。但它們是如何實作的?這種智能是從何而來?這就帶我們來到同心圓的裡面一層,機器學習。

| 機器學習—— 一種實作人工智能的方法

AI、機器學習和深度學習之間的差別是什麼?

機器學習最基本的做法,是使用算法來解析資料、從中學習,然後對真實世界中的事件做出決策和預測。與傳統的為解決特定任務、寫死的軟體程式不同,機器學習是用大量的資料來“訓練”,通過各種算法從資料中學習如何完成任務。

機器學習直接來源于早期的人工智能領域。傳統算法包括決策樹學習、推導邏輯規劃、聚類、強化學習和貝葉斯網絡等等。衆所周知,我們還沒有實作強人工智能。早期機器學習方法甚至都無法實作弱人工智能。

機器學習最成功的應用領域是計算機視覺,雖然也還是需要大量的手工編碼來完成工作。人們需要手工編寫分類器、邊緣檢測濾波器,以便讓程式能識别物體從哪裡開始,到哪裡結束;寫形狀檢測程式來判斷檢測對象是不是有八條邊;寫分類器來識别字母“ST-O-P”。使用以上這些手工編寫的分類器,人們總算可以開發算法來感覺圖像,判斷圖像是不是一個停止标志牌。

這個結果還算不錯,但并不是那種能讓人為之一振的成功。特别是遇到雲霧天,标志牌變得不是那麼清晰可見,又或者被樹遮擋一部分,算法就難以成功了。這就是為什麼前一段時間,計算機視覺的性能一直無法接近到人的能力。它太僵化,太容易受環境條件的幹擾。

随着時間的推進,學習算法的發展改變了一切。

| 深度學習——一種實作機器學習的技術

AI、機器學習和深度學習之間的差別是什麼?

人工神經網絡(Artificial Neural Networks)是早期機器學習中的一個重要的算法,曆經數十年風風雨雨。神經網絡的原理是受我們大腦的生理結構——互相交叉相連的神經元啟發。但與大腦中一個神經元可以連接配接一定距離内的任意神經元不同,人工神經網絡具有離散的層、連接配接和資料傳播的方向。

例如,我們可以把一幅圖像切分成圖像塊,輸入到神經網絡的第一層。在第一層的每一個神經元都把資料傳遞到第二層。第二層的神經元也是完成類似的工作,把資料傳遞到第三層,以此類推,直到最後一層,然後生成結果。

每一個神經元都為它的輸入配置設定權重,這個權重的正确與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。

我們仍以停止(Stop)标志牌為例。将一個停止标志牌圖像的所有元素都打碎,然後用神經元進行“檢查”:八邊形的外形、救火車般的紅顔色、鮮明突出的字母、交通标志的典型尺寸和靜止不動運動特性等等。神經網絡的任務就是給出結論,它到底是不是一個停止标志牌。神經網絡會根據所有權重,給出一個經過深思熟慮的猜測——“機率向量”。

這個例子裡,系統可能會給出這樣的結果:86%可能是一個停止标志牌;7%的可能是一個限速标志牌;5%的可能是一個風筝挂在樹上等等。然後網絡結構告知神經網絡,它的結論是否正确。

即使是這個例子,也算是比較超前了。直到前不久,神經網絡也還是為人工智能圈所淡忘。其實在人工智能出現的早期,神經網絡就已經存在了,但神經網絡對于“智能”的貢獻微乎其微。主要問題是,即使是最基本的神經網絡,也需要大量的運算。神經網絡算法的運算需求難以得到滿足。

不過,還是有一些虔誠的研究團隊,以多倫多大學的Geoffrey Hinton為代表,堅持研究,實作了以超算為目标的并行算法的運作與概念證明。但也直到GPU得到廣泛應用,這些努力才見到成效。

我們回過頭來看這個停止标志識别的例子。神經網絡是調制、訓練出來的,時不時還是很容易出錯的。它最需要的,就是訓練。需要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調制得十分精确,無論是否有霧,晴天還是雨天,每次都能得到正确的結果。

隻有這個時候,我們才可以說神經網絡成功地自學習到一個停止标志的樣子;或者在Facebook的應用裡,神經網絡自學習了你媽媽的臉;又或者是2012年吳恩達(Andrew Ng)教授在Google實作了神經網絡學習到貓的樣子等等。

吳教授的突破在于,把這些神經網絡從基礎上顯著地增大了。層數非常多,神經元也非常多,然後給系統輸入海量的資料,來訓練網絡。在吳教授這裡,資料是一千萬YouTube視訊中的圖像。吳教授為深度學習(deep learning)加入了“深度”(deep)。這裡的“深度”就是說神經網絡中衆多的層。

現在,經過深度學習訓練的圖像識别,在一些場景中甚至可以比人做得更好:從識别貓,到辨識血液中癌症的早期成分,到識别核磁共振成像中的惡性良性腫瘤。Google的AlphaGo先是學會了如何下圍棋,然後與它自己下棋訓練。它訓練自己神經網絡的方法,就是不斷地與自己下棋,反複地下,永不停歇。

| 深度學習,給人工智能以璀璨的未來

深度學習使得機器學習能夠實作衆多的應用,并拓展了人工智能的領域範圍。深度學習摧枯拉朽般地實作了各種任務,使得似乎所有的機器輔助功能都變為可能。無人駕駛汽車,預防性醫療保健,甚至是更好的電影推薦,都近在眼前,或者即将實作。

人工智能就在現在,就在明天。有了深度學習,人工智能甚至可以達到我們暢想的科幻小說一般。你的C-3PO我拿走了,你有你的終結者就好了。

注:本文原文來自NVIDIA官網,作者Michael Copeland,Long-time Tech記者。

當然對機器學習,人工智能感興趣的同學可以關注一下這個微網誌:大資料與人工智能CCNU      
這個部落客經常發一些人工智能方面的時事動态      

繼續閱讀