在經曆了蠻荒的PC網際網路時代,混戰的移動網際網路時代,到現今最火的人工智能時代。大資料、雲計算、機器學習的技術應用,已經使得IT從業者的門檻越來越高。套用一句樊登讀書會的宣傳口号“keep learning”,保持對新鮮技術的好奇心,保持對技術應用的責任心,持續關注、學習是每個IT從業者的必備技能。
一、什麼是人工智能?

人工智能(Artificial Intelligence),英文縮寫為AI。
它是一個融合計算機科學、統計學、腦神經學和社會科學的前沿綜合學科。
它使得計算機像人一樣擁有智能能力,可以代替人類實作識别、認知,分析和決策等多種功能。
比如當你說一句話時,機器能夠識别成文字,并了解你話的意思,進行分析和對話等。
二、人工智能發展簡史
1956年,幾個計算機科學家相聚在達特茅斯會議(Dartmouth Conferences),提出了“人工智能”的概念。其後,人工智能就一直萦繞于人們的腦海之中,并在科研實驗室中慢慢孵化。
之後的幾十年,人工智能一直在兩極反轉,或被稱作人類文明耀眼未來的預言;或者被當成技術瘋子的狂想扔到垃圾堆裡。坦白說,直到2012年之前,這兩種聲音還在同時存在。
上世紀90年代,國際象棋冠軍卡斯帕羅夫與”深藍” 計算機決戰,”深藍”獲勝,這是人工智能發展的一個重要裡程碑。而 2016 年,Google 的 AlphaGo 赢了南韓棋手李世石,再度引發 AI 熱潮。
過去幾年,尤其是2015年以來,人工智能開始大爆發。很大一部分是由于GPU的廣泛應用,使得并行計算變得更快、更便宜、更有效。
當然,無限拓展的存儲能力和驟然爆發的資料洪流(大資料)的組合拳,也使得圖像資料、文本資料、交易資料、映射資料全面海量爆發。
三、人工智能發展條件
1、硬體發展:AI 不斷爆發熱潮,是與基礎設施的進步和科技的更新分不開的,從 70 年代 personal 計算機的興起到 2010 年 GPU、異構計算等硬體設施的發展,都為人工智能複興奠定了基礎。
2、資料發展:網際網路及移動網際網路的發展也帶來了一系列資料能力,使人工智能能力得以提高。
3、運算發展:計算機的運算能力從傳統的以 CPU 為主導到以 GPU 為主導,這對 AI 有很大變革。
4、算法發展:算法技術的更新助力于人工智能的興起,最早期的算法一般是傳統的統計算法,如 80 年代的神經網絡,90 年代的淺層,2000 年左右的 SBM、Boosting、convex 的 methods 等等。随着資料量增大,計算能力變強,深度學習的影響也越來越大。尤其是2011 年之後,深度學習的興起,帶動了現今人工智能發展的高潮。
四、機器學習:一種實作人工智能的方法
機器學習(Machine Learning, ML)是一門多領域交叉學科,涉及機率論、統計學、逼近論、凸分析、算法複雜度理論等多門學科。
機器學習是人工智能的核心,是使計算機具有智能的根本途徑,其應用遍及人工智能的各個領域,它主要使用歸納、綜合而不是演繹。
機器學習最基本的做法,是使用算法來解析資料、從中學習,然後對真實世界中的事件做出決策和預測。
與傳統的為解決特定任務、寫死的軟體程式不同,機器學習是用大量的資料來“訓練”,通過各種算法從資料中學習如何完成任務。
機器學習最成功的應用領域是計算機視覺,雖然也還是需要大量的手工編碼來完成工作。人們需要手工編寫分類器、邊緣檢測濾波器,以便讓程式能識别物體從哪裡開始,到哪裡結束;寫形狀檢測程式來判斷檢測對象是不是有八條邊;寫分類器來識别字母“STOP”。使用以上這些手工編寫的分類器,人們總算可以開發算法來感覺圖像,判斷圖像是不是一個停止标志牌。
【機器學習有三類】:
第一類是無監督學習,指的是從資訊出發自動尋找規律,并将其分成各種類别,有時也稱”聚類問題”。
第二類是監督學習,監督學習指的是給曆史一個标簽,運用模型預測結果。如有一個水果,我們根據水果的形狀和顔色去判斷到底是香蕉還是蘋果,這就是一個監督學習的例子。
最後一類為強化學習,是指可以用來支援人們去做決策和規劃的一個學習方式,它是對人的一些動作、行為産生獎勵的回饋機制,通過這個回饋機制促進學習,這與人類的學習相似,是以強化學習是目前研究的重要方向之一。
五、深度學習:一種實作機器學習的技術
值得一提的是機器學習同深度學習之間還是有所差別的,機器學習是指計算機的算法能夠像人一樣,從資料中找到資訊,進而學習一些規律。雖然深度學習是機器學習的一種,但深度學習是利用深度的神經網絡,将模型處理得更為複雜,進而使模型對資料的了解更加深入。
深度學習是機器學習中一種基于對資料進行表征學習的方法。深度學習是機器學習研究中的一個新的領域,其動機在于建立、模拟人腦進行分析學習的神經網絡,它模仿人腦的機制來解釋資料,例如圖像,聲音和文本。
同機器學習方法一樣,深度機器學習方法也有監督學習與無監督學習之分.不同的學習架構下建立的學習模型很是不同.例如,卷積神經網絡(Convolutional neural networks,簡稱CNNs)就是一種深度的監督學習下的機器學習模型,而深度置信網(Deep Belief Nets,簡稱DBNs)就是一種無監督學習下的機器學習模型。
如上圖,人工智能是最早出現的,也是最大、最外側的同心圓;其次是機器學習,稍晚一點;最内側,是深度學習,當今人工智能大爆炸的核心驅動。
六、人工神經網絡:一種機器學習的算法
人工神經網絡(Artificial Neural Networks)是早期機器學習中的一個重要的算法,曆經數十年風風雨雨。神經網絡的原理是受我們大腦的生理結構——互相交叉相連的神經元啟發。但與大腦中一個神經元可以連接配接一定距離内的任意神經元不同,人工神經網絡具有離散的層、連接配接和資料傳播的方向。
例如,我們可以把一幅圖像切分成圖像塊,輸入到神經網絡的第一層。在第一層的每一個神經元都把資料傳遞到第二層。第二層的神經元也是完成類似的工作,把資料傳遞到第三層,以此類推,直到最後一層,然後生成結果。
每一個神經元都為它的輸入配置設定權重,這個權重的正确與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。
我們以“停止(Stop)标志牌”為例,将一個停止标志牌圖像的所有元素都打碎,然後用神經元進行“檢查”:八邊形的外形、消防車般的紅顔色、鮮明突出的字母、交通标志的典型尺寸和靜止不動運動特性等等。神經網絡的任務就是給出結論,它到底是不是一個停止标志牌。神經網絡會根據所有權重,給出一個經過深思熟慮的猜測——“機率向量”。
回過頭來看這個停止标志識别的例子。神經網絡是調制、訓練出來的,時不時還是很容易出錯的。它最需要的,就是訓練。需要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調制得十分精确,無論是否有霧,晴天還是雨天,每次都能得到正确的結果。
隻有這個時候,我們才可以說神經網絡成功地自學習到一個停止标志的樣子;或者在Facebook的應用裡,神經網絡自學習了你媽媽的臉;又或者是2012年吳恩達(Andrew Ng)教授在Google實作了神經網絡學習到貓的樣子等等。
吳教授的突破在于,把這些神經網絡從基礎上顯著地增大了。層數非常多,神經元也非常多,然後給系統輸入海量的資料,來訓練網絡。在吳教授這裡,資料是一千萬YouTube視訊中的圖像。吳教授為深度學習(deep learning)加入了“深度”(deep)。這裡的“深度”就是說神經網絡中衆多的層。
現在,經過深度學習訓練的圖像識别,在一些場景中甚至可以比人做得更好:從識别貓,到辨識血液中癌症的早期成分,到識别核磁共振成像中的惡性良性腫瘤。Google的AlphaGo先是學會了如何下圍棋,然後與它自己下棋訓練。它訓練自己神經網絡的方法,就是不斷地與自己下棋,反複地下,永不停歇。
七、人工智能的研究領域和分支
人工智能研究的領域主要有五層:
1、最底層是基礎設施建設,包含資料和計算能力兩部分,資料越大,人工智能的能力越強。
2、往上一層為算法,如卷積神經網絡、LSTM 序列學習、Q-Learning、深度學習等算法,都是機器學習的算法。
3、第三層為重要的技術方向和問題,如計算機視覺,語音工程,自然語言處理等。還有另外的一些類似決策系統,像 reinforcement learning(編輯注:增強學習),或像一些大資料分析的統計系統,這些都能在機器學習算法上産生。
4、第四層為具體的技術,如圖像識别、語音識别、機器翻譯等等。
5、最頂端為行業的解決方案,如人工智能在金融、醫療、網際網路、交通和遊戲等上的應用,這是我們所關心它能帶來的價值。
八、人工智能的應用場景
1、計算機視覺
2000年左右,人們開始用機器學習,用人工特征來做比較好的計算機視覺系統。如車牌識别、安防、人臉等技術。而深度學習則逐漸運用機器代替人工來學習特征,擴大了其應用場景,如無人車、電商等領域。
2、語音技術
2010 年後,深度學習的廣泛應用使語音識别的準确率大幅提升,像 Siri、Voice Search 和 Echo 等,可以實作不同語言間的交流,從語音中說一段話,随之将其翻譯為另一種文字;再如智能助手,你可以對手機說一段話,它能幫助你完成一些任務。與圖像相比,自然語言更難、更複雜,不僅需要認知,還需要了解。
3、自然語言處理
目前一個比較重大的突破是機器翻譯,這大大提高了原來的機器翻譯水準,舉個例子,Google 的 Translation 系統,是人工智能的一個标杆性的事件。2010 年左右, IBM 的”Watson”系統在一檔綜藝節目上,和人類冠軍進行自然語言的問答并獲勝,代表了計算機能力的顯著提高。
4、決策系統
決策系統的發展是随着棋類問題的解決而不斷提升,從 80 年代西洋跳棋開始,到 90 年代的國際象棋對弈,機器的勝利都标志了科技的進步,決策系統可以在自動化、量化投資等系統上廣泛應用。
5、大資料應用
可以通過你之前看到的文章,了解你所喜歡的内容而進行更精準的推薦;分析各個股票的行情,進行量化交易;分析所有的像客戶的一些喜好而進行精準的營銷等。機器通過一系列的資料進行判别,找出最适合的一些政策而回報給我們。
九、人工智能的未來之路
1、在計算機視覺上,未來的人工智能應更加注重效果的優化,加強計算機視覺在不同場景、問題上的應用。
2、在語音場景下,目前的語音識别雖然在特定的場景(安靜的環境)下,已經能夠得到和人類相似的水準。但在噪音情景下仍有挑戰,如原場識别、口語、方言等長尾内容。未來需增強計算能力、提高資料量和提升算法等來解決這個問題。
3、在自然語言進行中,機器的優勢在于擁有更多的記憶能力,但卻欠缺語意了解能力,包括對口語不規範的用語識别和認知等。人說話時,是與實體事件學相聯系的,比如一個人說電腦,人知道這個電腦意味着什麼,或者它是能夠幹些什麼,而在自然語言裡,它僅僅将”電腦”作為一個孤立的詞,不會去産生類似的聯想,自然語言的聯想隻是通過在文本上和其他所共現的一些詞的聯想, 并不是實體事件裡的聯想。是以如果要真的解決自然語言的問題,将來需要去建立從文本到實體事件的一個映射,但目前仍沒有很好的解決方法。是以,這是未來着重考慮的一個研究方向。
4、當下的決策規劃系統存在兩個問題,第一是不通用,即學習知識的不可遷移性,如用一個方法學了下圍棋,不能直接将該方法轉移到下象棋中,第二是大量模拟資料。是以它有兩個目标,一個是算法的提升,如何解決資料稀少或怎麼自動能夠産生模拟資料的問題,另一個是自适應能力,當資料産生變化的時候,它能夠去适應變化,而不是能力有所下降。所有一系列這些問題,都是下一個五或十年我們希望很快解決的。
參考:
騰訊 AI Lab 張潼主任帶你輕松 get AI 新知識
https://www.qcloud.com/community/article/666041
人工智能、機器學習和深度學習之間的差別和聯系
https://www.cnblogs.com/dadadechengzi/articles/6575767.html
百度百科:人工智能
https://baike.baidu.com/item/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/9180
百度百科:機器學習
https://baike.baidu.com/item/%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0
百度百科:深度學習
https://baike.baidu.com/item/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/3729729
百度百科:人工神經網絡
https://baike.baidu.com/item/%E4%BA%BA%E5%B7%A5%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C
本站轉發:人工智能、機器學習、深度學習和人工神經網絡
http://www.cnbruce.com/blog/showlog.asp?log_id=1422
人工智能:為機器賦予人的智能
機器學習:一種實作人工智能的方法
深度學習:一種實作機器學習的技術
人工神經網絡:一種機器學習的算法