天天看點

阿裡進入大模型時代,核心是算力和生态

出品|虎嗅科技組

作者|齊健

編輯|陳伊凡

頭圖|阿裡雲

AI大模型的浪潮,似乎正将所有網際網路廠商拉到同一起跑線上。

“面對AI時代,所有産品都值得用大模型重做一次。”在4月11日的2023阿裡雲峰會上,阿裡巴巴集團董事會主席兼CEO、阿裡雲智能集團CEO張勇說。

在本屆阿裡雲峰會上,張勇宣布,阿裡巴巴所有産品未來都将接入大模型,全面更新。

這樣的動作,意味着在阿裡雲,AI大模型将更像是一個應用型平台,北京軟體和資訊服務業協會首席研究員倉劍将其比喻為“超級APP”。阿裡想打造的,正是這樣一個App的底座,雲業務則是這個生态的基礎。

“阿裡雲非常幸運,我們趕上了中國過去十幾年網際網路産業熱潮。”張勇如是說。根據第三方市調機構Canalys最新釋出的2022年中國雲市場資料顯示,阿裡雲在2022年占中國雲市場佔有率的36%,排名第一,雖然業績穩定增長,但增速持續放緩。在雲業務這樣的新興市場,相比近兩年快速增長的“其他雲”,阿裡雲的關鍵詞更像是“守業”。

而就在阿裡雲緩步前行時,ChatGPT從天而降。

在這波AI技術的爆發中,ChatGPT依雲而生,Azure在ChatGPT訓練、運作過程中表現出色。AI大模型能力,成了全球雲廠商追捧的焦點,也成為了未來雲業務最核心的競争優勢之一。

眼下,對于雲廠商來說,不論前期發展如何,這波AI熱潮,的确是一個換道超車的機會,模型能力、基礎設施、開發者生态,都有可能決定雲廠商的未來。

算力仍是重點

算力、算法、資料是AI大模型研發的三大要素,在AI大模型的競逐中,主流雲計算廠商顯然在算力方面有着更強的實力,但一項創新技術的研發必然面臨諸多複雜的問題,有時候優勢亦是挑戰。

“阿裡雲未來核心要做好兩件事情:第一,讓算力更普惠;第二,讓AI更普及。”張勇提出,雲計算是AI大規模普及的最佳方式,他說,“我們希望在阿裡雲上訓練一個模型的成本,能夠降低到現在的十分之一,甚至是百分之一。即使是中小企業,也能通過雲平台獲得AI大模型的能力和服務。”

據周靖人介紹,過去十年裡,阿裡雲提供的算力成本下降了80%,存儲成本下降了近9成。2023年,阿裡雲将推出一款更接近雲計算終極形态的算力産品,這款被命名為通用Universal執行個體的産品進一步屏蔽了傳統IT的硬體參數,讓資料中心真正成為一台超級計算機,為中小企業和開發者提供普惠的算力。通用Universal執行個體的價格有大幅降低,對比上一代主售執行個體最高可下降40%。

降價、普惠的确是推廣雲服務、普及AI的有效路徑,但普惠算力能滿足大模型的研發需求嗎?

AI大模型的研發對算力需求很高,而算力的強弱,取決于多個條件,包括硬體性能、硬體數量、系統和網絡、軟體優化、算法效率以及能源供應和散熱等。

OpenAI的公開資料顯示,GPT-3模型的研發采用的全部是英偉達A100顯示卡。而目前國内算力服務商在A100的囤貨量上,并不樂觀。

“AI的訓練、營運都需要算力,無論傳統的AI模型還是現在的預訓練大模型,算力肯定是雲計算廠商的核心優勢。”倉劍告訴虎嗅,GPU晶片是影響AI大模型訓練算力的重要條件。國内服務商缺芯問題目前還不是很明顯,因為從營運、發展的角度來說,國内廠商都會在算力方面進行長期儲備。

此外,對于雲廠商來說,伺服器對晶片技術的要求相比手機低一些,主要是體積和能耗方面的問題,部分國内自研晶片基本也能滿足60%-70%的AI大模型研發需求。

然而,對于AI大模型研發來說,雖然沒有高端GPU也能研發AI大模型,但訓練效果和效率必然會大打折扣。首先,如果GPU現存不夠的話,就需要對大模型進行架構優化、使用模型并行技術或降低批量大小來适應顯存限制,但這可能會影響模型性能和訓練穩定性。

阿裡雲研究員、阿裡雲官網負責人蔣林泉表示,“對于大模型研發來說,高端GPU晶片意味着資料的存儲能力更強,對于用到大量資料的AI大模型訓練更加友好。但如果沒有足夠先進的GPU,就需要擴大GPU叢集,通過分布式訓練等手段,來做大模型訓練。”

然而,對于雲廠商來說,要擴大GPU叢集的分布式訓練,就需要在建構GPU叢集的過程中,保證高速通信和同步的能力,這對于雲計算廠商來說同樣存在一定的技術門檻。

阿裡雲并沒有透露大模型使用的晶片情況。目前,國内大模型訓練使用的晶片多是英偉達的A100。

雖然雲服務商的存貨能滿足一時的需求,但随着AI大模型的迅速發展,算力缺口可能會呈幾何級數上漲,而且随着AI技術、晶片技術的疊代更新,國内廠商的“庫存”或許很快就不夠用了。而單純低端顯示卡并聯,很難滿足更進階的研發需求,且很快也會面臨能耗、成本的問題,未來算力市場要如何算賬,自研晶片要如何開發,都是擺在雲廠商面前的難題。

生态是制勝的關鍵

算力之外,生态是大模型争奪的戰場,各大廠商正在跑馬圈地。

在阿裡雲峰會上,周靖人正式公布了阿裡雲的大型語言模型産品——通義千問。

雖然在幾天前,通義千問就已經上線進行了邀測,不過測試的邀請碼申請隻開放了半天,多數申請使用者似乎都沒有收到邀請碼。周靖人介紹說,目前通義千問的測試主要針對定向的企業使用者。

本次展示的通義千問能力比目前的邀測版本更豐富,不僅包括了大規模語言模型 (LLM)的對話功能,多輪互動及複雜指令了解。還提到了與GPT-4的“識圖”能力相似的多模态融合,以及支援外部增強API的功能。

阿裡的AI大模型能力與阿裡雲成立之初一樣,第一步都是服務“自己人”。在本屆阿裡雲峰會上,張勇宣布,阿裡巴巴所有産品未來将接入大模型,全面更新。他表示,要建設全新的AI開放生态,需要從阿裡内部開始。

以釘釘為例,在周靖人的示範Demo中,釘釘接入通義千問之後可實作近10項新AI功能,使用者可通過快捷鍵,随時随地喚起AI,開啟全新工作方式。在釘釘文檔中,通義千問可以創作詩歌小說、撰寫郵件、生成營銷策劃方案等,全面輔助辦公。在釘釘會議中,通義千問可以随時生成會議記錄并自動總結會議紀要、生成待辦事項。通義千問還可以幫助自動總結未讀群聊資訊中的要點。

阿裡進入大模型時代,核心是算力和生态

一個趨勢是,AI能力将會成為SaaS軟體的硬名額。“有人曾說國内SaaS卷不動可以出海試試。不過現在恐怕也沒戲了,在國内你面對的是釘釘等産品,但是到了海外,可能就要面對帶GPT-4的團隊了。”某國内協同辦公軟體公司高管對虎嗅透露,短期來看SaaS、協同辦公軟體上的AI功能可能還要等一陣,畢竟成本擺在那兒,不過如果微軟、谷歌不計成本地“卷起來了”,國内廠商的好日子可能就要到頭了。

“AI大模型可能更像微信、支付寶這種超級APP,它是一個應用型平台。”倉劍認為。國内大廠不太可能共享自己的資料,是以也不可能共享一個通用AI大模型,更不會依托于其他廠商的大模型。

生态競争将成為各廠商AI大模型的制勝關鍵之一。“對于以大模型為主業的企業來說,主要的客戶或合作夥伴應該會是AI能力不強的行業企業。通過加入某一個大模型的生态,綁定某一個重要的服務商,實作AI大模型的賦能。”倉劍說。

抓住使用者,讓企業加入自己的生态,光有價格優惠還不夠。對于企業和使用者來說,無論何種數字化、智能化轉型,目的無非是“降本、提質、增效”,一直以來,雲技術都在努力從企業的業務中找到能夠實作這三個目标的場景。然而在今天,任何一種生成式AI大模型,要找到這樣的場景,首先要面對的就是“降低成本、提高穩定性”這兩個重要問題,對ChatGPT、GPT-4如是,對通義千問亦如是。

繼續閱讀