在資料中心服務市場上,毫無疑問英特爾(Intel)是老大,IDC認為它的市場佔有率達到了恐怖的99%。但是在最新、最熱的細分市場——人工智能上,英特爾卻沒能拔得頭籌。在這個領域中,現在正如魚得水的是圖像晶片專家英偉達(NVIDIA),它的産品在深度學習神經網絡中大受歡迎,被廣泛用于像圖像識别、語音識别以及自然語言處理等人工智能任務。

在最新的IDF16開發者大會上,英特爾宣布了其最新專門用于人工智能處理的處理器——第三代Xeon Phi,代号“Knights Mill”,劍指該領域中最大廠商英偉達。
Xeon Phi處理器将于2017年推出,英特爾宣稱在Xeon Phi處理器中添加了許多“浮點”計算,這對于機器學習算法來說十分重要。目前英特爾Xeon處理器已在資料中心被廣泛部署,并且也被用于幾乎所有的深度學習計算任務。不過,部分使用者也部署了用于人工智能任務的輔助處理器。這些輔助處理器大多是來自英偉達的GPU(圖形處理單元)。英特爾表示,Xeon Phi處理器産品線比标準Xeon處理器有更多的處理器核心。
英特爾提到,Xeon Phi處理器可以運作大部分資料分析軟體,同時無需用到可能導緻分析速度放緩的外部處理器。這是Xeon Phi相對于其他産品的關鍵優勢。英特爾高管還表示,相對基于GPU的方案,Xeon Phi可以搭配更多記憶體。
英特爾希望這個晶片能在快速發展(但仍屬小衆)的機器學習市場獲得一席之地,英特爾表示:所有伺服器中隻有7%的被用來處理有關機器學習的算法,另外隻有0.1%是在運作深度神經網絡(機器學習的一個分支,模拟神經元和大腦的突觸來處理非結構化資料)。特别是時下最熱門的深度學習,通過最新釋出的Xeon Phi處理器,英特爾希望能在這個市場中後來者居上。
目前在深度學習領域中,GPU發揮了相當重要的作用。英偉達的GPUs之是以大行其道是因為它們能進行“并行計算”——該技術可以同時進行多重運算。這使得其在運作深度學習神經網絡時比通用處理器要快得多。以前需要大量的CPU以及超級計算機進行的運算工作,現在隻需要少數GPU組合就可以完成。這大大加速了深度學習領域的發展,為神經網絡進一步發展提供了計算基礎。熟悉深度學習的人都知道,深度學習是需要訓練的,所謂的訓練就是在成千上萬個變量中尋找最佳值的計算。這需要通過不斷的嘗試實作收斂,而最終獲得的數值并非是人工确定的數字,而是一種常态的公式。通過這種像素級的學習,不斷總結規律,計算機就可以實作像像人一樣思考。
英特爾執行副總裁以及資料中心組總經理Diane Bryant在采訪中提到:如果這種計算需求迅速擴大的話,GPUs解決方案将會遇到問題。“GPUs解決方案沒法擴張——這個市場目前仍然處于初級階段,是以目前使用GPUs就能完成任務,但是在未來GPU沒辦法進一步擴充。”
此外,英特爾還找來百度來替自己背書。百度宣布将會使用Xeon Phi晶片來運作它的自然語言處理服務“Deep Speech”。此前百度一直都是使用英偉達的GPUs來加速自己的深度學習模型,就在上月現任英偉達CEO黃仁勳(Jen-Hsun Huang)選擇在斯坦福大學與深度學習專家舉行一個小規模的交流會,在會上釋出号稱當下性能最強悍的GPU顯示卡——TITAN X,并把第一塊TITAN X顯示卡送給了現任百度美國研究員首席科學家Andrew Ng(吳恩達)。如今百度選擇在IDF16上宣布将Xeon Phi晶片來運作它的自然語言處理服務“Deep Speech”,對于百度未來是否還将繼續使用英偉達的技術,百度一名發言人拒絕透露有關資訊。
這表明在這場有關AI(人工智能)未來的戰争中,英特爾表現得越來越激進。在最近釋出的一些基準測試中,英特爾宣稱Xeon Phi處理器比英偉達的GPUs快2.3倍。
不過英偉達在最新的部落格中提到英特爾使用的是過時的軟體和硬體,得出的結果并不具有說服力。英偉達聲稱如果英特爾使用最新的技術的話,英偉達将會在機器學學習模型訓練上比英特爾快30%。英偉達另外提到,如果根據最新資料用4個Pascal 架構組成的TITAN X GPU,其運作速度是4個Xeon Phi 處理器的 5 倍多。
“可以了解,剛進入這個領域的新人可能沒有意識到這個領域中軟硬體正在發生的進步。”英偉達在其最新官方部落格中提到。
針對英偉達的激烈反擊,英特爾最新的回複是:“完全可以了解英偉達擔心英特爾在這一領域的動作,英特爾所有的表現資料都是基于當下的公開可用的解決方案而來,我們對資料有信心。”無論基準結果如何,英特爾稱光靠GPU是無法完成所有的加速任務的。 此外作為英特爾進軍人工智能的一部分,英特爾上周宣布以4.08億美元收購AI初創公司Nervana。想要了解後續相關資訊,請持續關注我們的報道。
PS : 本文由雷鋒網編譯,未經許可拒絕轉載!
via Forbes Nvidia Blog等