在去年4月的全球開發者大會上,紮克伯格暢想了未來十年facebook的人工智能發展藍圖:成為整個社交網站的核心動力。接近一年過去,可以看到facebook至少在硬體上是沒有停下腳步。
3月9日,facebook工程師kevin lee宣布,為了進一步加速神經網絡的訓練,将推出新一代gpu伺服器big basin。新一代的伺服器其實是2015年facebook推出的big sur伺服器的更新版,并且同樣都會在open computer project平台上進行開源。
無論人工智能還是機器學習,它們出現在人們面前的形象常常是算法和代碼,而伺服器則是背後“看得見摸得着”的那一部分。big sur一直是facebook發展人工智能的利器,其強大的計算能力為facebook語言技術和圖像技術提供支援。這次的硬體更新将存儲量從12g提升到16g,模型訓練量能夠再提升30%,同時在進行神經網絡訓練時,其訓練速度能比big sur高出一倍。
undefined
與nvidia的dgx-1架構非常相似,big basin由8個nvidia tesla p100 gpu (搭載nvlink技術的 tesla p100加速器)加速器組成,這些gpu們由 nvidia nvlink連接配接在一起組成了一個盒子。這個伺服器也被公司成為jbog ( just a bunch of gpus )——一堆gpu,這一大堆gpu的能量就意味着足夠為機器學習提供支援。
不像無人車和機器人,facebook本身的社交平台屬性弱化了人工智能技術的外露特征,讓很多使用者感受不到人工智能的沖擊力,但其實我們日常使用的很多facebook 服務無一不是人工智能在背後發生作用:語音識别、語音文字轉換、圖像的分類和識别,big basin 和它的前身 big sur 就是實作這些服務的重要支撐。
你每天能多做3套模拟題的結果可能是期末多考30分,機器學習每天多訓練30%的模型,結果可能就是更精準地圖檔識别、更快速的語音識别、更合理的資訊推薦,每一個facebook的使用者作為閱卷老師,最後都應該能體會到這樣的變化。
人工智能是很多科技公司的急于搶占的陣地,對 facebook 而言則是“阿喀琉斯之踵”。一是因為 facebook 本身入局較晚,二是缺乏殺手級應用。
在人工智能浪潮中,科技公司要站穩腳跟就需要為自己找到一塊壁壘。google被認為是走在人工智能行業的前列,從 tenserflow 開源平台到旗下的 deepmind 人工智能公司,從成績斐然的圍棋算法到離商業化最近的雲服務和智能家居,google 戰略布局思路可以說是很清晰了。而其他的科技公司,即便觸手沒有伸到四面八方,但也有自己的戰略根據地,微軟有 cortana platform、ibm 有 watson。
相對而言 facebook 就略顯薄弱,雖然在去年推出 messenger 聊天機器人,準備打造大型聊天機器人生态系統,但是前段時間來自外媒 the information 的調查報告顯示,messenger 聊天機器人在沒有人為幹預的情況下,能準确處理使用者請求的準确率還不到30%。這70%的錯誤率揭開 facebook 在人工智能研究領域研究處于弱勢的傷疤,facebook 也決定削減一些開支,讓 messenger 從低品質聊天中轉型,隻做一些特殊問題的處理。
facebook 削減開支的是打人工智能的退堂鼓了?從今天新硬體産品的更新看來并非如此,而是把注意力轉移到提升基礎設施上,畢竟身體是革命的本錢
本文轉自d1net(轉載)