天天看點

“百模大戰”下,位元組跳動選擇做一個“大模型商場”

作者:澎湃新聞

·這種模式一端連着大模型廠商,另一端則接着大模型的應用需求。如果這條路線成功,那麼中間平台就能建構起一個完整生态,甚至成為唯一入口,這可能才是選擇這條路線的廠商的終極目标。

随着生成式AI熱潮興起,一個新的價值鍊正在出現,主要分為六個類别:計算機硬體、雲平台、基礎模型、模型中心和機器學習操作(MLOps)、應用程式和服務,一眼看上去與傳統的人工智能價值鍊非常相似,隻有基礎模型是新增的。

“百模大戰”下,位元組跳動選擇做一個“大模型商場”

随着生成式AI熱潮興起,一個新的價值鍊正在出現,主要分為六個類别:計算機硬體、雲平台、基礎模型、模型中心和機器學習操作(MLOps)、應用程式和服務。 圖檔來源:麥肯錫

目前,AI基礎模型似乎已成為第一輪競争賽的“兵家必争之地”,百度、阿裡巴巴、騰訊等原本占據優勢地位的科技巨頭紛紛推出自己的大模型,“百模大戰”格局初現。而同為巨頭的位元組跳動,直到最近才有了新動作。

6月28日,位元組跳動旗下火山引擎釋出大模型服務平台“火山方舟”,面向企業提供模型精調、評測、推理等全方位的平台服務(MaaS,即Model-as-a-Service),目前內建了百川智能、出門問問、複旦大學MOSS、IDEA研究院、瀾舟科技、MiniMax、智譜AI等多家AI科技公司及科研團隊的大模型,類似于為各行各業提供了一個“大模型商場”。

“選擇合适你的大模型。”火山引擎總裁譚待講解道,“在選擇之前,首先需要明确自己的需求,并基于需求場景,制定可量化的評估名額。到底是關注模型的邏輯推理能力、文本生成能力,還是風險控制能力?有了量化的評估名額作為依據,就可以針對不同的模型進行全方位的能力測評,選擇成本效益最合适的。注意,并不一定是選效果最好的,而是成本效益最合适的。因為在真實應用場景裡,成本和收益是不可回避的問題。”

火山引擎智能算法負責人吳迪介紹,企業可以用統一的工作流對接多家大模型,對于複雜需求可設定進階參數、驗證集、測試集等功能,再通過自動化和人工評估直覺對比模型精調效果,在不同業務場景裡還可靈活切換不同的模型,實作最具成本效益的模型組合。

“賣點”:成本和資料安全

總結起來,整場釋出會主要強調兩個“賣點”:成本和資料安全。

吳迪稱,國内大模型正在快速疊代,不同大模型在特定任務上各有千秋,企業不必急于綁定一家大模型,而是應該結合自身業務場景,綜合評估使用效果和成本,在不同場景選用更具成本效益的模型。

據國盛證券《ChatGPT需要多少算力》報告,GPT-3訓練一次的成本約為140萬美元,一些更大的大模型,訓練成本介于200萬美元到1400萬美元之間。

“訓練大模型很昂貴,但是從長期來看,模型的推理開銷會超過訓練開銷。效果和成本的沖突永遠存在,降低推理成本會是大模型應用落地的重要因素。一個經過良好精調的中小規格模型,在特定工作上的表現可能不亞于通用的、巨大的基座模型,而推理成本可以降低到原來的十分之一。”吳迪說。

資料安全也是大模型落地應用中的核心話題。據網絡安全公司Cyberhaven調查,至少有4%的員工将企業敏感資料輸入ChatGPT,敏感資料占輸入内容的比例高達11%。2023年初,三星公司在使用ChatGPT不到20天時,就發現其半導體裝置相關機密資料被洩露,并連續發生3起類似事故。

在這點上,吳迪一方面介紹了“火山方舟”已上線的基于安全沙箱的大模型安全互信計算方案,利用計算隔離、存儲隔離、網絡隔離、流量審計等方式,實作模型的機密性、完整性和可用性,另一方面也表示正在探索基于英偉達新一代硬體支援的可信計算環境、基于聯邦學習的資料資産分離等多種方式的安全互信計算方案。

在具體營收模式方面,吳迪表示,作為中間平台,火山會将資源供應給大模型提供方,供應内包含一定的IaaS層(Infrastructure as a Service,基礎設施即服務)利潤,大模型提供方刨除掉基本成本,疊加自身認為合理的利潤,最終形成其大模型在火山方舟上的定價。而下遊客戶的支付成本包括了模型服務費與平台服務費,後者火山在相當長時間内都設定為零。

什麼是MaaS?

火山引擎釋出會中提到的商業模式MaaS是什麼?

MaaS(模型即服務)是生成式AI最常見的商業模式之一,比如引起這一波生成式AI熱潮的OpenAI将其GPT模型(ChatGPT背後的基礎模型)授權給微軟,以在其必應搜尋引擎中使用。借助MaaS,公司可以通過雲通路生成式AI模型,并使用它們來建立新的應用。

這種商業模式類似于當今大多數軟體基于訂閱的模式。MaaS的最大好處之一是它使公司可以通路最新的生成式AI模型,而無需投資從頭開始建構這些模型所需的基礎設施和資源。此外,MaaS産品(如OpenAI的GPT-3和谷歌的BERT)高度可定制。

資産管理公司Globalxetfs認為,我們最終可能會看到根據模型的使用情況收取增量費用的商業模式,類似目前在亞馬遜雲(AWS)或微軟雲(Azure)看到的情況。其被稱為即用即付價模式,客戶隻需為他們使用的服務付費。它還允許模型提供商管理其成本結構(通過人工智能模型運作的每個查詢都有相關成本,目前估計約為兩到三美分),OpenAI的文本生成圖像工具DALL-E目前實作了這種類型的定價結構。

終極目标:建構生态

火山引擎這種入局大模型的方式并非第一次出現,之前雲廠商亞馬遜雲科技就有相關實踐。4月,亞馬遜推出Amazon Bedrock新服務,通過API(應用程式程式設計接口)可通路來自AI21 Labs、Anthropic、Stability AI和亞馬遜自己的大模型。

美東時間6月28日,亞馬遜雲科技銷售和營銷進階副總裁馬特·加曼 (Matt Garman)在采訪中稱,“針對金融服務客戶優化的模型可能不是針對基因組資料優化的模型,也可能不是最适合電子商務或圖像或任何其他事物的模型。也比如Stability AI對于圖像來說是一個很好的模型,但對于文本來說卻不是。可以通過一些測試判斷模型A的性能是否優于模型B,然後自由選擇模型組合或最适合的模型。”

這種模式一端連着大模型廠商,另一端則接着大模型的應用需求。如果這條路線成功,那麼中間平台就能建構起一個完整生态,甚至成為唯一入口,這可能才是選擇這條路線的廠商的終極目标。

在接受媒體采訪時,譚待稱,火山側重于提供平台,提供安全、低成本的應用服務,目前仍堅持不做大模型。

譚待認為,未來的大模型市場将是一個百花齊放的多模型生态,在這個生态系統中,将同時并行存在幾個少數的超大規模的大模型、多個中等規模的大模型和更多個行業的垂直模型,這是由安全信任、行業壁壘和成本因素共同決定。

中國科學技術資訊研究所等機構釋出的《中國人工智能大模型地圖研究報告》顯示,截至今年5月,國内已公開披露的大模型數量達到79個。

“另一方面,企業尤其是行業頭部企業,未來自身對于大模型的應用将會是‘1 +N’的模式,即企業通過自研或與第三方模型服務商的深度合作,形成自身的1個主力模型。在這個主力模型之外,在不同的場景中,企業還會同時應用N個外部模型。”譚待說。

麥肯錫在《探索生成式人工智能價值鍊中的機會》一文中表示,生成式人工智能系統的基礎比大多數傳統人工智能系統要複雜得多。是以,與傳遞相關的時間、成本和專業知識給整個價值鍊的新進入者和小公司帶來了巨大的阻力。“雖然整個領域都存在價值,但我們的研究表明,在可預見的未來,許多領域将繼續由科技巨頭和現有企業主導。”報告稱。

繼續閱讀