天天看點

探訪FB人工智能資料中心:推動深度學習的引擎

在美國西部登陸facebook帳号,你的資料就很可能被一台由杜松和俄勒岡中部沙漠地區夾雜鼠尾草氣息的空氣而冷卻的電腦調出。

在人口大約為9000人的小鎮prineville,facebook存儲了數以億計的海量資料。一排排的電腦被安放在四座巨大的,總計八十萬平方米的建築裡。它們整齊地排放着,好像要讓來自西北的幹冷風吹拂過每一台電腦。每當使用者登入,點贊或者是發送lol的時候,這些閃着藍綠色光的伺服器都會發出沉悶的低吼。

facebook最近剛加入一些新機器到prineville的伺服器大軍中。同時,公司也裝載了新的大功率伺服器,旨在加速對軟體翻譯、更聰明的虛拟助手以及文字識别等人工智能技術的訓練。

facebook新的big sur伺服器是圍繞本來為圖檔處理而開發的大功率處理器——gpu來設計的。這些處理器加強了最近人工智能的一個技術飛躍——深度學習。由于gpu使得如何訓練軟體的舊觀念被運用到更廣大更複雜的資料集中,軟體可以變得驚人的“善解人意”,特别是在了解圖檔和文字方面。

kevin lee,facebook一位緻力于伺服器工作的工程師表示,他們在幫助facebook的研究員們通過以運作更快、使用更多資料的方式來訓練軟體。”這些伺服器是人工智能和機器學習研究的專用硬體。gpu可以記錄一張照片,把它們分成無數小像素,然後同時處理。”

每8個gpu就配置一台big sur伺服器,facebook使用的是擅長于圖像識别的半導體供應商nvidia制造的gpu。lee沒有确切表明到底配置有多少伺服器,但是據他所說,有數千塊gpu在工作着。公司的prineville,ashburn和virginia的資料中心都安裝了big sur伺服器。

因為gpu極其耗能,與資料中心裡其他伺服器不同,facebook不得不把它們排放松散,以免産生過熱點,給冷卻系統帶來麻煩,以至于耗能更多。現在每個七英尺高的架子裡都隻能放下八個big sur伺服器,而這些架子過去可以容納30個隻負責做一些使用者資料處理等日常工作的facebook正常伺服器。

在運作大資料中心和運用gpu來進行機器學習研究這些方面,facebook不是唯一一家。海内外的巨頭,比如微軟、谷歌以及百度等也運用gpu來進行深度學習的研究。

社交網絡是非比尋常的。它開創了big sur伺服器設計、其它伺服器設計,以及建立prineville資料中心的新紀元。公司把這些設計和計劃捐獻給了一個非盈利項目——開放計算項目(open compute project)。這個項目由facebook于2011年發起,旨在鼓勵計算機公司互相協作,設計出低耗高效的資料中心硬體。這個項目至今已經幫助了數家亞洲硬體公司,搶占了一些傳統供貨商如戴爾和惠普的市場。

facebook ai研究項目的主管yann lecun說道,當今年早些時候big sur伺服器宣布使用的時候,他相信該技術通用之後,會有更多組織建造強有力的機器學習基礎設施,然後加速此領域的發展程序。

不過,未來機器學習伺服器建造的計劃可能不會以gpu為核心,如今很多家公司在緻力于新晶片的設計。相比于gpu來說,這種晶片是特别為深度學習的算法而制作的。

今年五月,谷歌宣布其已經開始使用自己設計的tpu晶片來驅動産品中的深度學習軟體,如語音識别。在訓練之後,這一代的晶片似乎更适合于運作算法,而不是像big sur伺服器一樣,最初的訓練步驟是為了加速。但是,谷歌已經開始第二代晶片的研究。nvidia和其它幾家新公司包括nervana也在開發為深度學習定制的晶片。

普渡大學副教授eugenio culurciello表示,深度學習的有效性意味着這種晶片将會被廣泛應用。“市場對這種晶片已經有巨大需求了,而且這種需求隻增不減。”

當被問到facebook是否在開發定制晶片時,lee表示,公司正在“研究中”。

====================================分割線================================

本文轉自d1net(轉載)

繼續閱讀