天天看點

大模型想落地,先讓大家用得起

作者:虎嗅APP
大模型想落地,先讓大家用得起

題圖|視覺中國

自2023年開始,全球範圍掀起了以大模型為代表的生成式AI浪潮。過去一年,但凡和算力、算法、資料、網絡安全、雲計算、AI相關的企業和題材,都在AI大模型題材的風口上,被追捧上了天。但從技術革新的角度看,國産大模型并沒有給生産生活方式帶來質的改變。

前不久,李開複在一場采訪中直言不諱地指出,對于美國人來說,“ChatGPT時刻”發生在17個月前,但中國使用者卻還在翹首以待屬于自己的“AI時刻”。

歸根結底,國内的聊天機器人和工具做得還不夠好。“中國必須擁有自己的ChatGPT,才能激發公衆對AI技術的極大興趣,并推動其在更廣泛領域的應用和投資。”李開複直言。

與此同時,不斷有大佬高喊“不能落地的大模型沒有意義”。

比如李彥宏就公開表示,中國現在數百個基礎模型是對社會資源巨大的浪費,更多的資源應該如何探索與各行各業的結合,以及下一個超級應用的可能性。

在需求端,市場其實非常迫切想要找到能快速落地、産生效益的AI産品和服務。對于大模型開發者和應用者來說,卷參數已經沒有任何意義。在火山引擎總裁譚待看來,“如何讓更多人、各行各業用起來”,才是現階段對于“好模型”的最佳定義。

多位行業人士判斷,今年将是中國生成式AI應用的爆發元年。而當下打開市場的關鍵突破口,“價格”成為了行業的新共識。

用起來是關鍵

在剛剛結束的春季功能更新會上,OpenAI宣布了其最新模型GPT-4o,不僅性能有大幅提升,價格也下調了50%。要知道,這是自2023年初以來,OpenAI進行的第4次降價。

在目前市場上,大模型通常是以1000 tokens為計費單元。以GPT4為例,從去年3月釋出至今,OpenAI把GPT4更新到GPT-4o,輸入價格從0.03美元/1000 tokens下降到0.005美元/1000 tokens,降幅高達83%;輸出價格也從0.06美元/1000 tokens下降到0.015美元/1000 tokens,降幅為75%。

按照OpenAI的預期,其大模型将按照每年50-75%幅度繼續降本。

把降本深埋在業務發展主線的,不隻有OpenAI。今年以來,為了加速應用端的落地,國内大模型玩家不僅開始順應降價的趨勢,甚至降幅力度達到了驚人的程度。

例如智譜大模型在本月官宣其新的價格體系,入門級産品 GLM-3 Turbo 模型調用價格從 5 元/百萬 tokens 降至 1 元/百萬 tokens,降幅高達 80%。

再比如DeepSeek 在5 月 6 日釋出的二代 MoE 大模型 DeepSeek-V2,能力對标GPT-4、llama 3-70B,每百萬 tokens 的輸入和輸出分别是 1 元和2 元,隻有 GPT-4 Turbo 價格的近百分之一。

大模型想落地,先讓大家用得起

而位元組在5月15日釋出的豆包大模型,直接把AI使用成本從“以分為機關”,幹到了“以厘為機關”的時代。

其中,主力模型豆包Pro 32k定價0.8厘/1000 tokens,比行業平均價格降低99.3%。在全行業降價的背景下,同樣是1塊錢,使用者可以從GPT買到2400個 token,國産大模型可以得到8000多個 token。

如果使用者用開源Llama模型自己搭建,大概能獲得3萬個 token。而1塊錢,能在豆包大模型上足足獲得125萬個 token,相當于處理3本75萬字的《三國演義》文字量。

在過去一年上演的“百模大戰”,每隔一段時間總會有人對“如何加速模型落地”進行追問。無可否認,AI大模型有無限大的價值,等着市場玩家去發掘,但眼下不過是行業非常初期的探索階段。

AI作為一場成本驅動的生産力革命,大模型的價值在于通過建立圖像和語言了解,讓創造的邊際成本無限趨近于零。在火山引擎總裁譚待看來,降價是價值創造的重要推動力:“大模型在 to B市場的應用場景還很少,包括OpenAI也在不斷降價,大家的共同目标都是把市場蛋糕先做大。”隻有降低客戶試錯成本,才能促進産業繁榮。

一位行業人士坦言,目前中國AI大模型應用的市場規模,與所有市場玩家投入的訓練成本相比杯水車薪。企業還無法靠 to B 服務做到正循環,在收入方面的差距在兩個量級以上。在這種情況下,大模型企業試圖通過降價,讓更多人用起來,“至少是條可以嘗試的路子。”

低價而非價格戰

中國企業曆來奉行應用主義,多數企業之是以願意擁抱AI時代,就是希望自身在市場競争中借助 AI 打造差異化優勢,進而提升行業競争力。

然而,面對市場層出不窮的大模型,使用者難以準确做出選型決策。再加上企業缺乏模型調優和專業資料處理的經驗,導緻模型的實際應用效果達不到預期,很難與自身業務相适配。

模型效果是AI落地最關鍵的一環。多位行業從業者表示,好的技術一定是在大規模應用,不斷打磨的情況下形成的。這與位元組在豆包大模型釋出會上對外闡述的理念一緻——用起來才是關鍵。“隻有在真實場景中落地,用的人越多,調用量越大,才能讓模型越來越好。”譚待告訴虎嗅。

通常來說,價格是使用者對于大模型的首要考慮因素。畢竟AI 創新的風險系數非常高,很多企業即使想做各種創新,可受限于模型使用成本,并且擔心模型難以勝任各垂類場景的任務,導緻ROI為負,是以會更傾向嘗試沒有門檻負擔的工具。

譚待粗略算了一筆賬,企業要想用AI做一項創新,至少要消耗100億 token,如果按照大模型之前的售價,平均需要花費80萬元,而現在使用豆包大模型,隻需要8000元就能搞定。

過去,大模型推理成本下降,很大程度上依賴于算力的更新。而豆包之是以在價格上“碾壓”其他同類大模型,依靠的是模型結構的優化、工程上從傳統的單機推理變為分布式推理,以及把不同負載的推理進行混合排程等方式,進而帶來超預期的降本效果,也成為打開AI應用的重要“開關”。

值得注意的是,包括BATJ等頭部大廠,也都在把大模型的競争焦點放在了模型訓練效率提升,降低大模型的推理成本上。

當然,如果單純拼價格,誰都能祭出價格更低的大模型。但如果要真正打破大模型與行業之間的高牆,讓美好的場景更廣泛地發生,更低的成本是必要條件,但不能以犧牲模型的品質為前提。

例如市面上也有很多輕量化模型,雖然也做到了比較低的成本,但是以壓縮了模型能力和推理成本為代價,在效果上大打折扣,不能與其主力模型相提并論。

盡管大模型降價的趨勢已成必然,但位元組的“行業最低價”也招緻不小的熱議。

一方認為,豆包大模型以行業最低價讓企業用最低成本就能調用大模型,加速了應用落地;另一方則批評,位元組的野心讓其過早地觸發了價格戰,随着各家大模型使用成本逐漸降低,接下來很可能會上演一場市場争奪戰。

對于外界的質疑,譚待解釋稱,大模型現在還是初期階段,遠沒有到激烈競争的程度,模型的推理成本未來一定會繼續下降,“或許,等到那時再回看今天的0.8厘錢,也許一點都不便宜。相比之下,我們隻不過是提前那麼一步而已,目的并非是為了驅趕對手。”

況且,低價不等同于“價格戰”。to B 需要保持長期的盈利,譚待表示:“不虧損是保障業務穩定的關鍵,也是火山引擎的原則。”因為隻有這樣,才能長期可持續地提供服務。

從概念驗證邁向落地開花

在去年AI大爆發引發的大模型訓練熱潮中,包括智譜AI、月之暗面、Minimax、零一萬物最早都使用了火山引擎的算力訓練模型。

譚待坦言,雲市場其實比拼的就是規模。AI大模型的火熱,為雲廠商開辟了新的市場機遇。微軟Azure就是最有力的證明。其通過投資綁定OpenAI讓雲業務一路高歌猛進,躍升為全球第一的智能雲。

目前,豆包大模型已認證火山引擎正式對外提供服務。根據官方資料,豆包大模型單日Tokens的用量達1200億,單日生成的圖檔數超過了3000萬張。

去年,當大多數在去年上演“百模大戰”時,位元組的“缺席”曾一度被外界認為存在嚴重的滞後性。彼時的豆包大模型,還處于襁褓之中。誰曾想,隐忍多時的位元組,會在這個節點出手。

除了模型的效果和成本,應用落地也非常關鍵。在過去一年裡,豆包接入了包括抖音、頭條、番茄小說等50多個業務,業務場景涵蓋辦公智能助手、電商導購、售後客服、營銷創作、資料智能分析、程式設計助手等,并邀請了手機、汽車、金融、消費、互娛領域的行業頭部客戶内測。

在模型打磨的過程中,挑戰一直都在。首先要讓基礎能力和性能達到對應的标準,然後對接企業客戶需要解決很多問題,比如搭建大模型評估和應用流程,包括測試集合、案例分析和精調能力等,否則很難辨識哪些場景靠譜,哪些場景短期内不合适。

也是在和企業客戶磨合的過程中,火山引擎團隊加深了對助手類、知識類、娛樂類、教育類等場景的了解和适配程度,并且針對不同場景在火山方舟2.0平台植入了對應的插件和工具平台,不斷實踐摸索中找到最佳的解決方案。

大模型的能力目前很多元度上讓人驚歎,但也有很多缺陷,同時又在快速演進,每隔三個月、半年都會發生很大變化。“這恰恰是做大模型産品的挑戰和樂趣,需要在這種持續動态的技術發展中,不斷去判斷下一個産品的PMF (産品市場比對點)可能是什麼。”

值得一提的是,在位元組的AI 應用搭建平台“扣子”上,已經有些開發者通過自己開發的應用,獲得了一定收入。譚待預測在今年下半年,大模型在應用方面将會讓更多場景,從概念驗證階段走向落地階段。

眼下,火山引擎和招商銀行、蒙牛、OPPO等企業使用者,在核心業務場景都已展開了合作和探索,至于大模型将如何塑造未來,一切還要交給時間去驗證。

本内容為作者獨立觀點,不代表虎嗅立場。未經允許不得轉載,授權事宜請聯系 [email protected]

正在改變與想要改變世界的人,都在 虎嗅APP

繼續閱讀