天天看點

人工智能哪些領域及公司值得關注?Playfair投資人為你闡述六大關注方向

人工智能哪些領域及公司值得關注?Playfair投資人為你闡述六大關注方向

雷鋒網按:有人将人工智能定義為“認知計算”或者是“機器智能”,有的人将 ai 與“機器學習”混為一談。事實上,這些都是不準确的,因為人工智能不單單是指某一種技術。這是一個由多學科構成的廣闊領域。衆所周知, ai 的最終目标是建立能夠執行任務并且具備認知功能的智慧體,否則它隻是在人類智力範圍内的機器。為了完成這個野望,機器必須學會自主學習,而不是由人類來對每一個系統進行程式設計。

令人興奮的是,在過去

10 年中,人工智能領域已經取得了大的進步,從自動駕駛汽車到語音識别到機器翻譯,ai 正在變得越來越好,也離我們越來越近。近日,知名風投

playfair capital 風險投資人 nathan benaich 在 medium 上釋出文章《6 areas of ai and

machine learning to watch closely》,講述了他眼中人工智能發展勢頭比較火熱的領域及其應用。雷鋒網編譯。

強化學習是一種試錯(trial-and-error)的學習範式。在一個典型的

rl

中,強化學習需要連續選擇一些行為,而這些行為完成後會得到最大的收益。強化學習在沒有任何标記,也不告訴算法應該怎麼做的情況下,先嘗試做出一些行為,得到一個結果,然後通過判斷這個結果的正誤對之前的行為進行回報,再由這個回報來調整之前的行為。通過不斷的調整,算法能夠學習到在什麼樣的情況下選擇什麼樣的行為可以得到最好的結果。谷歌

deepmind 就是用強化學習的方法在 atari 遊戲和圍棋中取得了突破性進展。

應用範圍:為自動駕駛汽車提供 3d 導航的城市街道圖,在共享模型環境下實作多個代理的學習和互動,迷宮遊戲,賦予非玩家視訊遊戲中的角色人類行為。

公司:deepmind(谷歌),prowler.io,osaro,micropsi,maluuba (微軟),nvidia,mobileye 等。

主要研究人員:

pieter abbeel(openai),david silver,nando de freitas,raia hadsell(谷歌

deepmind),carl rasmussen(劍橋),rich sutton (alberta),john

shawe-taylor(ucl)等等。

與判别模型不同的是,生成方法可以由資料學習聯合機率密度分布,然後求出條件機率分布作為預測的模型,即生成模型。它的基本思想是首先建立樣本的聯合機率機率密度模型,然後再得到後驗機率,再利用其進行分類。2014

年,蒙特利爾大學的 ian goodfellow 等學者發表了論文 《generative adversarial nets》

,即“生成對抗網絡”,标志了 gans 的誕生。這種生成對抗網絡就是一種生成模型(generative

model),它從訓練庫裡擷取很多訓練樣本,并學習這些訓練案例生成的機率分布。gans 的基本原理有 2

個模型,一個是生成器網絡(generator network),它不斷捕捉訓練庫裡真實圖檔的機率分布,将輸入的随機噪聲(random

noise) 轉變成新的樣本。另一個叫做判别器網絡(discriminator

network),它可以同時觀察真實和假造的資料,判斷這個資料到底是真的還是假的。這種模型是用大規模資料庫訓練出的,

具有比其他無監督學習模型更好的效果。

應用範圍:用于真實資料的模組化和生成,模拟預測時間序列的可能性,比如為強化學習制定計劃,在圖像,視訊,音樂,自然語句等領域都有應用,比如預測圖像的下一幀是什麼。

公司:twitter cortex,adobe, 蘋果,prisma, jukedeck,creative.ai,gluru, mapillary,unbabel 等。

主要研究人員:ian

goodfellow (openai) , 大神yann lecun 以及soumith chintala(facebook ai

research),shakir mohamed  以及  aäron van den oord(谷歌 deepmind) 等等。 

記憶網絡指的是帶有記憶體的神經網絡。為了使

ai

系統能夠在多樣化的現實社會中得到更好的推廣,它們必須不斷學習新的任務,并“記住”自己是如何執行任務的。然而,傳統的神經網絡并不能做到這些。原因是當它們在執行

b 任務時,網絡中對于解決 a 任務的權重發生了改變。

不過,有幾種強大的架構能夠賦予神經網絡不同程度的記憶,比如長短期記憶網絡

lstm,它能夠處理和預測時間序列。還有 deepmind 的新型機器學習算法“

可微分神經計算機”dnc,它将“神經網絡”計算系統與傳統計算機存儲器結合在一起,這樣便于它浏覽和了解複雜的資料。

應用範圍:這種學習代理可以應用到多種環境中,比如機械臂控制物體,時間序列的預測(金融市場,物聯網等)。

公司:google deepmind,nnaisense ,swiftkey/微軟等

主要研究人員: alex

graves, raia hadsell,koray kavukcuoglu(google deepmind),jürgen

schmidhuber (idsai),geoffrey hinton(google brain/toronto)等等。

大家都知道,基于大量資料集可以建構出色表現的深度學習模型,比如著名的

imagenet,作為最早的圖檔資料集,它目前已有超過 1400

萬張被分類的圖檔。如果沒有大資料集,深度學習模型可能就難以有良好的表現,在諸如機器翻譯和語音識别上也難執行複雜任務。這種資料需求在使用單個神經網絡處理端到端問題時會增長,即把語音的原始音頻記錄作為“輸入→輸出”語音的文本轉錄。如果想要

系統用來解決更多具有挑戰性,敏感或耗時的任務,那麼開發出能夠從較小的資料集學習的模型非常重要。在對小資料集進行教育訓練時,也存在一些挑戰,比如處理異常值以及教育訓練和測試之間資料分布的差異。此外,還有一種方法是通過遷移學習來完成。

應用範圍:通過模拟基于大資料集的深層神經網絡的表現,訓練淺層網絡具備同等性能,使用較少的參數,但卻有深度神經網絡同等性能的模型架構(如 squeezenet),機器翻譯等。

公司:geometric intelligence/uber,deepscale.ai,微軟研究院, curious ai 公司,google,bloomsbury ai

主要研究人員:zoubin

ghahramani (劍橋),yoshua bengio(蒙特利爾大學), josh tenenbaum(麻省理工學院),brendan

lake (紐約大學),oriol vinyals(google deepmind) , sebastian riedel (ucl) 等。

人工智能的發展依仗多項技術的推薦,而我們常說的

gpu 就是促進 ai 進步的主要催化劑之一。與 cpu 不同,gpu

提供了一個大規模并行架構,可以同時處理多個任務。考慮到神經網絡必須處理大量(通常是高維的) 資料,在 gpu 上的訓練比 cpu

快得多。這就是為什麼 gpu 最近很受各個科技大佬追捧的原因,其中包括衆人熟知的 nvidia 、英特爾、高通、amd 以及谷歌。

然而,gpu

并不是專門用于教育訓練或者推理的,它們在建立之始是為了渲染視訊遊戲中的圖形。gpu

具有超高的計算精度,但這也帶來了存儲器帶寬和資料吞吐量問題。這為包括谷歌在内的一些大公司開辟了競競争環境,專門為高維機器學習應用設計和生産的晶片順勢而生。通過設計出新的晶片可以改善記憶體帶寬等問題,或許也能具備更高的計算密度,效率和性能。人工智能系統給其所有者提供了更快速有效的模型,進而形成“更快,更有效的模型教育訓練→更好的使用者體驗→更多使用者參與産品→建立更大的資料集→通過優化提高模型性能”這樣的良性循環。

應用範圍:快速訓練模型(尤其是在圖像上),物聯網,雲領域的 iaas,自動駕駛汽車,無人機,機器人等。

公司:graphcore, cerebras,isocline

engineering,google ( tpu ),nvidia ( dgx-1 ),nervana systems

(intel),movidius ( intel ), scortex 等。

為人工智能生成訓練資料通常具有挑戰性,但是為了讓這項技術可以運用在現實世界中,必須要将它在多樣化環境中進行普及。而如果在仿真環境中訓練機器學習,随後就能把知識遷移到真實環境中。這無疑會幫助我們了解

ai 系統是怎麼學習的,以及怎樣才能提升 ai 系統,還會大大加速機器人的學習速度。仿真環境下的訓練能幫助人們将這些模型運用到現實環境中。

應用範圍:學習駕駛,制造業,工業設計,遊戲開發,智能城市等。

公司:improbable,unity 3d,微軟,google deepmind/blizzard,openai,comma.ai,unreal engine,amazon lumberyard 等。

主要研究人員: andrea vedaldi (牛津大學)等。

本文作者:劉子榆

上一篇: 2014節日大全
下一篇: 雲計算

繼續閱讀