天天看點

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

2022年11月,OpenAI推出了基于GPT-3.5打造的ChatGPT,引燃了大模型浪潮,進而引起全球AI競賽。海内外不少頭部網際網路公司和人工智能公司基本都對外釋出了自家的大模型,中國更是出現了“百模大戰”的局面。

根據AI算法備案中心統計,截至2024年3月28日,國内通過算法備案的大模型數量達117個。其中不乏我們熟悉的百度“文心一言”、阿裡巴巴“通義千問”、商湯科技“日日新”,還有我們今天要聊的位元組跳動“豆包大模型”(原名:雲雀)。

揭秘豆包大模型家族架構

豆包大模型經過近一年的疊代和市場驗證,今日終于正式開啟對外服務。在2024春季火山引擎Force原動力大會上,位元組跳動揭開了豆包大模型神秘的面紗,據介紹,豆包大模型包括通用模型pro、通用模型lite、語音識别模型、語音合成模型、文生圖模型等九款模型。

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:位元組跳動

具體應用方面,位元組跳動打造了AI對話助手“豆包”、AI創作工具“即夢”、AI應用開發平台“扣子”等一系列應用,并将大模型接入抖音、飛書、巨量引擎等業務闆塊,用以提升效率和優化産品體驗。

豆包作為位元組跳動重點投入的大模型應用,據位元組跳動産品和戰略副總裁朱駿透露,豆包APP在各大安卓應用市場和蘋果APP Store的AIGC類應用中,下載下傳量排名第一,月活使用者達2600萬。

此前小雷特地體驗了以圖檔、視訊生成為核心賣點的AI創作工具即夢,對豆包大模型的實力深有體會。即夢雖然在視訊生成方面仍有待優化,但圖檔生成已經達到了不錯的水準,這讓小雷對豆包充滿期待,究竟被位元組跳動寄予厚望的豆包是什麼樣的水準,不妨跟着小雷一起看看。

豆包輕體驗,全應用強調延伸性

豆包在移動端、PC端都有布置應用入口,小雷在體驗過程中發現原來豆包在Windows/Mac桌面用戶端以及浏覽器插件方面均有布局。為了友善體驗,小雷選擇了PC網頁端作為體驗對象。

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:豆包

進入網頁端首頁,豆包優先向我推薦了三個不同類型的AI應用,分别為AI搜尋、PDF問答、圖像生成,這可能是使用者使用頻次最高的應用。既然如此,小雷找來了同樣定位智能助手的Kimi,來看看這AI搜尋和PDF問答的成色,小雷已經在即夢上體驗過圖像生成,這次就不重複體驗了,兩者都接入了豆包大模型,表現應該相差不大。

強強對話之下,相信大家會對豆包大模型有更直覺的感受。

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:豆包

AI搜尋:各有長短,豆包赢在效率和問題延伸性

最近《歌手2024》火遍全網,話題性極高的中外歌手比拼引起不少網友熱議,小雷就此問題向豆包、Kimi提問。

豆包花費數秒就給出了回答及搜尋來源,回答内容沒有出現常識性錯誤,選手資訊和排名十厘清晰,對調侃式的網際網路熱梗也能準确識别并作出解釋。延伸性是AI搜尋的精髓之一,這點也在回答下方的得到展示。

相對來說,豆包用非常精簡語句總結了我們想要知道的答案。

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:豆包

Kimi在這塊相對好些,問題解釋比較詳細,在每個回答内容處标注了資料來源,這能為使用者省下不少翻查資訊來源的時間。生成效率方面,Kimi的表現不如豆包,大約用了10s才給出了回答,并且沒有給出該問題的延伸問題,這對于一個智能助手來說是個不小的問題。

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:Kimi

PDF問答:豆包驚喜,Kimi穩定

長文本處理是Kimi的強項,在之前的體驗中小雷讓其總結了《過于喧鬧的孤獨》書籍的PDF檔案,字數在10萬左右。這次豆包的處理對象依舊是它,看看同樣的指令處理同一份PDF檔案,豆包又能交出怎樣的答卷。

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:豆包

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:Kimi

Kimi對文章主要情節做了分段處理,每段内容提供段落小結,回答的開頭結尾就文章内容和寓意給出了确切的回答;豆包則是以文章的形式進行表達,将文章内容濃縮簡短的故事,大意與Kimi基本一緻,最後給出自己的了解。有趣的是,豆包還是遵循着延伸性搜尋的好習慣,下方提供了3個與文章相關的搜尋。

總的來說,兩者在準确識别PDF檔案内容的同時,對内容進行了總結,文章關鍵點基本提及。差别在于大模型的處理邏輯,這導緻回答的内容形式産生了差別,沒有優劣之分,使用者使用該功能隻為獲得準确的答案。不過受限于資料,小雷沒來得及準備更大文本量的PDF,是以無法試探豆包長文本處理能力的極限,感興趣的朋友可以自行實踐體驗。

除了常見的AI應用外,小雷發現豆包還隐藏了許多有趣的智能體。有角色扮演、文案助手以及各類測試等智能體,數量、品類之多足以覆寫生活、工作、學習、創作等諸多場景。使用者也可以選擇打造專屬于自己的AI智能體,自由設定頭像、名稱、人設以及權限。當然,小雷在之前已經對豆包做過深度評測,從多個次元試探了豆包在各場景下的實力,感興趣的朋友可以點選查閱。

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:豆包

此前,小雷在文心一言上建立了内置AI聲音的智能體,豆包APP已經有類似的應用,而豆包網頁端倒是沒有看到相關設定,或許後續會結合豆包大模型家族中的語音合成模型、聲音複刻模型、語音識别模型進行疊代,讓網頁端AI智能體更拟人。

大模型價格步入“厘時代”,AIGC應用場景加速落地

過去一年,豆包大模型已經在位元組跳動内部50多個業務和場景中得到廣泛應用,不少使用者使用抖音、飛書時發現了豆包的身影。據了解,豆包大模型自去年8月份上線以來,日均處理1200億Tokens文本,生成3000萬張圖檔,而龐大的内部使用量正是為了更好的實作外部服務。

大模型+應用産品共同釋出,是大多數大模型玩家的習慣,豆包大模型則正好相反,投入使用一年才正式釋出。或許是為了積累更龐大的資料使用量,又或者是為了更完美的首秀,總之位元組跳動有一套清晰的大模型戰略,并不會因為外界比較就随意調整。

在本次釋出會上,位元組跳動沒有放出任何榜單分數和參數規模,反而着重強調了豆包大模型加速落地的另一重要因素:價格。豆包主力模型在企業市場的定價隻有0.0008元/千Tokens,0.8厘就能處理1500多個漢字,比行業便宜99.3%,簡單換算一下,1元就能處理1250000tokens,價格遠低于GPT4、ERINE4.0、Qwen 2.5 Max等其他大模型處理成本。

比行業便宜99.3%!位元組跳動的豆包大模型要掀翻行業

圖源:位元組跳動

結合體驗,小雷感受到了位元組跳動的底氣所在,那就是行業大模型平均線以上的水準+遠低于行業的處理成本。對于任何一家有意發展大模型企業來說,這兩點具備絕佳的吸引力。目前豆包大模型在B端已收獲了不少的合作夥伴,來自汽車、手機、PC等行業的衆多企業均已接入火山引擎的大模型服務,包括吉利汽車、賽力斯、vivo、小米、華碩等。在高成本效益落地價格的推動下,未來接入大模型的企業會越來越多。

目前大模型應用發展仍處于早期階段。QuestMobile資料顯示,截至今年3月,基于大模型的AIGC行業使用者量為7380萬,同比增長了8倍,僅占移動網際網路使用者量的6%,存在廣闊的增長空間。位元組跳動極具競争力的定價在沖擊行業之餘,勢必給AIGC應用創造低成本的落地條件。

背靠位元組跳動的豆包大模型,是時候讓AIGC應用場景落地提提速了。

繼續閱讀