天天看點

從“天價”到“骨折價”,大模型要變天了

作者:钛媒體APP
文 | 光錐智能,作者|藝思,編輯|王一粟

十年後,國内雲廠商又打起來了!

近一個月,國内雲廠商掀起了新一輪的大模型降價潮。這意味着AI競争已經不僅僅是一場軍備技術競賽這麼簡單,各頭部廠商也在考慮如何賺錢了。

在這場價格戰中,包括火山引擎、阿裡,還有智譜AI、面壁智能這樣的明星創業團隊都卷了進來。各家看似是在降價,其實是想通過比低價,快速搶占市場,進而實作商業化的快速落地。

從卷大模型技術到卷價格

在衆人看來,可能頭部大廠最具降價的底氣和實力,因為大廠的業務比較多,就算AI業務虧錢,也可通過其他業務來彌齊,但有關大模型價格戰的發起人卻是明星創業團隊——智譜AI。

5月11日,智譜AI大模型開放平台上線了新的價格體系,新注冊使用者獲得額度從500萬tokens 提升至2500萬tokens,并且個人版 GLM-3Turbo模型産品的調用價格從5元/百萬tokens降低至1元 / 百萬tokens,足足降了5倍。但這還不夠,GLM-3 Turbo Batch 批處理 API也便宜了50%,價格為1元 /200萬tokens。

4天後,火山引擎放出一記重彈,宣布豆包Pro 32k模型定價是0.8厘/千tokens,這個價格比行業降低了99.3%,此外,豆包Pro 128k模型定價是5厘錢/千tokens。與行業模型比,價格足足降低了95.8%。

這則消息一經放出,整個AI圈都不淡定了。有人稱,火山引擎将大模型帶入到了“厘時代”。

我們算一筆賬,以主力模型32k視窗為例,1塊錢可以從GPT買到2400個token,如果選擇國内模型,大概能得到8000多個token。如果用開源Llama自己搭建,大概可以獲得3萬個token。但通過豆包模型,1塊錢就能獲得125萬個token。這是什麼概念?相信《三國演義》很多人都讀過,共計75萬字,換算過來,也就是1塊錢能處理3本《三國演義》的文字量。

與其他大模型比起來,火山引擎簡直是白菜價,幾乎等于不要錢。可以說,火山引擎此次降價,将大模型價格戰推向了高潮。

火山引擎釋出會後的兩天,騰訊集團進階執行副總裁、雲與智慧産業事業群CEO 湯道生在騰訊雲生成式AI産業應用峰會上介紹了混元大模型的技術、性能、安全、使用門檻低等特點,雖然沒有公開介紹價格。但據騰訊雲官網顯示,混元大模型可以為首次使用者提供10萬tokens的文本生成模型免費體驗額度,有效期為1年。而在tokens資源包的價格方面,視窗尺寸為32K的hunyuan-standard模型和hunyuan-pro模型,它們的模型推理輸入價格分别為0.0069元/千tokens和0.069元/千tokens,兩者均為刊例價的6.9折。

與此前比,價格明顯降低了。據騰訊雲官網一份更新于5月14日的計費資訊顯示,混元大模型标準版(hunyuan-standard的前身)和進階版(hunyuan-pro的前身)此前的模型推理輸入價格分别為0.012元/千tokens和0.12元/千tokens。

雖然幾家大廠中,阿裡雲的降價政策還不明顯,但早在今年2月29日,其就釋放出一個降價的信号,堪稱阿裡雲史上力度最大的降價,本次降價涉及100多款産品、500多個産品規格。其中,雲伺服器ECS最高降36%、對象存儲OSS最高降55%、雲資料庫RDS最高降40%,而這三項都是使用者使用頻率最高的産品。

從阿裡雲的降價清單中不難看出,降價的主力是傳統雲計算産品,雖然不涉及大模型,諸如GPU的AI訓練和推理算力。但雲和大模型的發展是相輔相成的,由此可以推斷,在大模型這波價格戰中,未來阿裡雲甚至更多大模型廠商很可能會加入進來,隻不過各家的節奏不同。

反觀過去一年OpenAI的動作,降價似乎一直是其主線任務。自去年以來,OpenAI已經進行了4次降價。在剛剛結束的春季釋出會上,OpenAI宣布了其最新模型GPT-4o,不僅性能有大幅提升,價格也下調了50%。

大模型價格戰的序幕已然揭開了。

價格戰,意欲何為?

目前,國産大模型的價格戰正在如火如荼的進行中。

有人難免發問:大模型本就是一個高投入、低産出的行業,為什麼要打價格戰?

結論非常簡單:“加快商業化落地。”

從去年下半年開始,大模型已經開始從“卷大模型技術”向“卷大模型應用”轉變。2024 年,商業化、落地應用将成為大模型公司的主旋律。

最新的《中國大模型中标項目監測報告》顯示,今年 1-4 月,可統計到的大模型相關中标金額已達到 2023 年全年披露金額的 77% 左右,涉及政務、金融、營運商、能源、教科、交通等各行各業,表明企業對大模型的應用需求正快速增長。

面對商業化,為何如此急切?

原因有二。一是,大模型研發成本越來越高。衆所周知,算力一直是國産大模型發展的掣肘。一方面,目前全球的算力技術,美國占據了全球近9成的算力市場佔有率,幾乎被其壟斷。相比之下,中國算力荒的現象越來越嚴峻。

據相關資料,中國目前的算力需求量約為每年1.5億台的伺服器,而中國的算力供給量僅為每年3000萬台的伺服器,缺口達到了1.2億台,占到了全球算力缺口的80%。與之而來的是,算力租賃服務的水漲船高。其中,并濟科技、中貝通信、彙納科技等公司宣布算力服務收費大幅上漲,導緻大模型研發成本進一步提升。

在巨大的成本壓力下,大模型廠商不得不加緊尋找一條商業化之路。

二是,大模型技術已經卷的差不多了,通用模型具備的是通識能力,是不能解決特定行業特定場景的實際問題的,隻有一項技術被成功大規模商用才是真正的成功,顯然,經過一年的技術比拼,已經到了驗證的階段。

為了加快大模型的商業化落地,國内各企業紛紛行動起來。目前大模型的商業化落地大緻有兩種路徑:一是API調用,二是,私有化部署。

API調用是最常見的落地方式。智譜AI自研的第四代基座大模型 GLM-4的調用價格仍為0.1元/千 tokens,百萬tokens的價格為100元,通義千問相對低,但qwen-72b-chat的調用價格也在0.02元/千tokens,OpenAI的GPT-4 Turbo 每100萬tokens輸入/輸出價格分别是10/30美元。

從短期來看,雖然成本不高,但對于需求量較大的使用者和行業來說,就顯得不是很友好了。

而私有化部署就更貴了。截至目前,國内沒有一家廠商披露具體的大模型訓練成本,但從多位行業人士口中得出,大模型的研發成本遠比想象中高的多,動辄成千上百萬,甚至需要以“億”來計算。

華為大模型負責人田奇曾提到,大模型開發和訓練一次需要約1200萬美元,這表明即使技術再領先的公司,大模型的訓練也是非常昂貴的。

百川智能創始人CEO王小川也曾表示,每1億參數對應訓練成本在1.5到3萬人民币之間。是以,一個千億級參數的模型單次訓練成本預估在三千萬至五千萬人民币之間。Anthropic的首席執行官Dario Amodei也預測過,未來兩年内模型成本将達到100億美元。

顯然,API調用和研發的高昂價格,已經成了AI商業化的枷鎖。久而久之,大模型就變成了有錢人的遊戲,肯定不利于大規模商業化。

而價格戰就成了最直接且最快速的落地方式。但并不是所有企業都能加入進來,因為隻有把大模型的研發成本盡可能的降低到最小,才有降價的空間和資本。

如前文所述,大模型最大的研發成本是算力,是以很多廠商往往會通過提高大模型的訓練效率、降低推理成本兩種手段來降本。

中國工程院院士鄭緯民曾做過這樣的計算,在大模型訓練的過程中,70%的開銷要花在算力上;推理過程中95%的花費也是在算力上。為何在推理上做文章,也就不言而喻了。

比如微軟在Microsoft Build 2020 上,公開了為GPT-3提供支援的AI supercomputing超級計算機,其可以讓大模型的訓練效率比其他平台高16倍,進而降低時間成本與風險成本。

國産大模型也不例外。盤古大模型早在2.0版本中,就嘗試用稀疏+稠密架構,來降低訓練成本。文心一言推出一個月後,也通過技術手段将大模型的推理性能提升近10倍,推理成本降到原來的十分之一。

阿裡雲通義大模型則聚焦于規模定理,基于小模型資料分布、規則和配比,研究大規模參數規模下如何提升模型能力,并通過對底層靈駿叢集的優化,将模型訓練效率提升了30%,訓練穩定性提升了15%。

而騰訊選擇了一條不同于百度和阿裡的路子,其将機器學習架構Angel、訓練以及推理架構進行疊代更新,其中,Angel可以将大模型訓練效率提升至主流開源架構的2.6倍,千億級大模型訓練可節省50%算力成本。

訓練架構方面,騰訊自研機器學習訓練架構AngelPTM,可針對預訓練、模型精調和強化學習等全流程進行加速和優化,實作以更少的資源和更快的速度訓練更大的模型;推理方面,騰訊推出大模型推理架構AngelHCF,通過擴充并行能力,實作更快的推理性能和更低成本,相較于業界主流架構,其推理速度提高了1.3倍。

競速大模型商業化,雲廠商亮劍

觀察下來,阿裡、騰訊、位元組的商業化路徑基本趨同,即“疊代通用模型的能力+建構完整的生态+研發創新型AI産品”,但也有不同的側重點。

持續疊代大模型能力,是大模型商業化的前提。

去年至今,國内幾家大廠都在持續疊代大模型的能力,百度先發制人于去年3月推出文心一言,目前文心大模型已經疊代至4.0版本,同時還推出了多個輕量級大語言模型。其後是阿裡,去年4月通義千問大模型問世,經過2.0、2.1現已疊代至2.5版本。

騰訊算是BAT中最晚的一家,去年9月混元問世。随後,騰訊并沒有像前兩者一樣,通過疊代新版本來擴大聲量,而是通過技術能力彰顯其實用性。諸如更新機器學習架構Angel、機器學習訓練架構AngelPTM以及大模型推理架構AngelHCF。另外,騰訊前段時間還開源了文生圖大模型,包括後續文生視訊能力的更新,通過這一些列動作讓大模型滲透到千行百業。

而位元組算是最特殊的一家,其僅用一年的時間就将豆包模型從1.0進化到了3.0,而從今年火山引擎釋出的豆包模型家族中看,不僅包括兩款通用模型 pro、lite,還推出了7款功能性模型,涵蓋角色扮演、語音識别、語音合成、聲音複刻、文生圖等方面。說明火山引擎未來将深入到不同行業不同場景。

衆所周知,調用量的大小會直接影響模型的效果,在這方面,目前文心大模型日調用量達到2億,通義大模型也已過億,位元組豆包大模型的日調用量達到1200億tokens(約1800億漢字)。

強生态,是大模型商業化的加速器。

生态建構方面,幾家大廠包括百度、阿裡、位元組火山引擎等都采取了一個相同的路徑——建構大模型平台,不僅提供自家模型服務還接入了第三方開源大模型,友善客戶按需調用。諸如百度智能雲千帆大模型平台,阿裡的百煉平台、騰訊元器以及火山引擎的方舟平台。

為了加速大模型滲透,拓展商業化市場的空間。阿裡堅定開源,去年8月通義開源,之後沿着“全模态、全尺寸”的開源路線,阿裡雲開源了 8 款參數規模從 5 億到 1100 億的大語言模型。其中,面向端側裝置,開源了如0.5B、1.8B、4B、7B、14B小尺寸模型;面對企業級使用者,開源了如72B、110B的大尺寸模型。此外,通義還開源了視覺、音頻、代碼、混合專家模型。

而阿裡的開源要追溯到2022年,也就是在大模型爆火的前一年,阿裡雲就完成了魔搭(ModelScope)社群的搭建,該社群推出阿裡就把其近五年研發的 300 多個優質模型全部開源出來。周靖人還介紹道,魔搭社群平台仍在持續擴大建設,平台上的高品質開源模型總數已超過 4500 個,開發者數量也已超過500 萬。

與阿裡一樣,騰訊在大模型商業化的競逐賽中,同樣選擇了開源路線。不久前,騰訊雲全面開源了混元文生圖模型。騰訊混元模型應用負責人張鋒表示,“在過去非大模型時代,我們就開源了很多項目,在大模型時代做出開源的決定,是最近半年騰訊與客戶接觸過程中得出的結論。”

而最早入局的百度卻一直在堅持閉源路線。百度認為,閉源大模型能實作比開源大模型性能更好、成本更低的綜合效果,進而促進AI應用生态的繁榮。

AI重構内部産品,是大廠進行大模型商業化的第一站。

目前,百度已經完成了對百度文庫、百度搜尋、百度地圖、如流等業務的AI重構。阿裡則對釘釘、高德地圖、閑魚、餓了麼、優酷、盒馬、淘票票,天貓、淘寶等阿裡集團最核心的産品進行了全面更新。

位元組内部也開啟了賽馬機制,抖音、剪映等50多個業務線各自為營開始了AI探索,此外,位元組也不改“App工廠”的本色。過去一年裡,除了主打的豆包App外,基于豆包大模型,還推出了互動娛樂應用“貓箱”,以及星繪、即夢等AI創作工具。

而騰訊作為大模型中最低調的一家,卻在産品側表現的尤為不低調。秉持着産業實用的原則,自去年9月混元上線以來,騰訊就将内部産品的AI化改造作為重點工作推進,目前,混元大模型已經在超600個騰訊内部業務和場景中落地。包括企業微信、騰訊會議、騰訊文檔等“一門三傑”産品,也包括騰訊樂享、騰訊電子簽、騰訊問卷、騰訊雲AI代碼助手等協作SaaS産品。

加速行業滲透,大模型商業化的最後一公裡。

無論是通用模型還是行業模型,最終的落地其實就是要解決特定行業、特定場景下的實際難題。當然在行業的選擇上,有交叉,也有不同的方向。

基于文心大模型,百度率先重構了數字政府、金融、工業、交通四大行業解決方案;依托騰訊雲TI平台,騰訊雲打造了行業大模型精選商店,覆寫金融、文旅、政務、傳媒、教育等十個行業,可提供超50個解決方案。同時,騰訊雲還攜手17家來自不同行業的生态夥伴,發起了“騰訊雲行業大模型生态計劃”,緻力于共同推進大模型在産業領域的創新和落地。

阿裡也于去年釋出了8個行業大模型,覆寫金融、醫療、法律、程式設計、個性化創作等領域。

而據資訊顯示,目前火山引擎已經與吉利汽車、長城汽車、捷途汽車、賽力斯、智己汽車等20餘家廠商成立了汽車大模型生态聯盟。同時,還與OPPO、vivo、榮耀、小米及華碩等終端廠商共同成立了智能終端大模型聯盟。由此推斷,火山引擎很可能率先這兩個行業作為抓手,待成熟後再向其他行業滲透。

結語

經過一年的時間,大模型的競争已經從卷大模型技術本身,過渡到了卷大模型商業化的階段。

如大模型研發一樣,大模型的商業化落地同樣不是一件易事,前者考驗的更多的是技術和資本,而後者在前者的基礎上,還需要根據不同行業、不同的業務場景,對大模型進行微調,進而提供一款真正能為企業所需的大模型服務。

目前,各大模型廠商紛紛亮劍,但這隻是開始,接下來很長一段時間内,各頭部将持續圍繞如何加快大模型落地做文章,競争的同時,也會把大模型推向一個新的發展階段。

繼續閱讀