天天看點

谷歌推出定制化機器學習晶片 速度是傳統GPU的15到30倍

谷歌推出定制化機器學習晶片 速度是傳統GPU的15到30倍

谷歌(微網誌)自主開發定制化晶片,以加速其機器學習算法,這已不是什麼秘密了。早在2016年5月,該公司就在其i/o開發者大會上首次公布了這款名為tensor processing units(簡稱tpu)的晶片。但是,該公司從未詳細地介紹過它們,隻是聲稱這些晶片是專門為其tensorflow機器學習架構度身定做的。

但是在周三,谷歌首次詳細地介紹了這種晶片的相關資訊。

谷歌的大衛-帕特森(david patterson)不僅與人聯合發表了有關tpu晶片的文章,而且在美國國家工程院于加利福尼亞州山景城舉行的一次活動中作了相關演講。這篇有關tpu晶片的文章總共有高達75名聯合署名作者。

晶片設計師可以上述文章中找到詳細的有關tpu的運作原理。根據谷歌自己的衡量标準,tpu執行谷歌一般機器學習任務的平均速度是标準gpu/cpu晶片(這裡指英特爾haswell晶片和英偉達k80 gpu)的15到30倍。由于資料中心的耗電量也是一個重要的考量,tpu的每瓦計算能力是gpu/cpu晶片的30到80倍。

谷歌推出定制化機器學習晶片 速度是傳統GPU的15到30倍

谷歌還指出,雖然大多數工程師針對卷積神經網絡改造了其晶片,但是這些網絡僅占谷歌資料中心工作量的大約5%,因為該公司的大多數應用程式均使用多層感覺器神經網絡。

谷歌聲稱,早在2006年,它就開始研究如何在其資料中心使用gpu、fpga(現場可程式設計門陣列)和定制化asic(實際上就是tpu)。但是在當時,并沒有多少應用程式可以從這種特殊的晶片受益,因為大多數任務均可以通過資料中心提供的額外的晶片進行處理。

“在2013年,情況發生了改變。我們預計,由于深度神經網絡(dnn)變得如何非常流行,它可能要求我們把資料中心的計算能力提高一倍。如果采用傳統的cpu晶片,成本就會變得極其昂貴。”谷歌在其檔案中稱,“是以,我們開始優先開發定制化asic。”

谷歌推出定制化機器學習晶片 速度是傳統GPU的15到30倍

  谷歌研究人員稱,他們的目标就是“将其成本效益提高到gpu晶片的10倍。”

谷歌從2015年起就一直在公司内部使用tpu晶片,而且它以後也可能隻會讓自己使用這種晶片。但是該公司指出,它希望其他公司能夠借鑒吸收它的研究成果,“打造下一代更高标準的晶片”。

在過去五年中,amd和英偉達等公司的gpu晶片已成為了經濟型深度學習技術的預設基礎架構。但是,谷歌、微軟和其他公司還開始探索其他類型的晶片,包括處理各種不同人工智能任務的fpga。谷歌知名硬體工程師諾姆-久皮(norm jouppi)在一篇博文中稱,谷歌的tpu晶片已開始支援google image search(圖檔搜尋)、google photos(谷歌照片)和google cloud vision(圖像識别平台)應用程式設計接口等等。

相對而言,tpu晶片的單片存儲器容量是英偉達k80 gpu的3.5倍,但是它的體積相對更小。目前,谷歌可以在一台伺服器中整合兩個tpu晶片。

“為了減少延緩部署的機率,tpu晶片并沒有與cpu進行整合,而是被設計成pcie i/o總線上的協處理器。這使得它能夠直接插入現有的伺服器中,就像gpu晶片一樣。而且,為了讓硬體設計和故障排除過程變得更為簡單,托管伺服器會發送指令給tpu晶片執行,而不是讓tpu晶片自己擷取指令。是以,從設計理念上來說,tpu晶片更接近于fpu協處理器,而不是gpu。”上述文章稱。 

本文轉自d1net(轉載)

繼續閱讀