天天看點

Meta硬剛OpenAI,國産“小模型”官宣開源,“百模大戰”走向何方?

作者:上觀新聞
Meta硬剛OpenAI,國産“小模型”官宣開源,“百模大戰”走向何方?

今年以來,全球網際網路大廠掀起“百模大戰”,微軟、谷歌、百度、阿裡等接連下場。經過半年多的競争,科技巨頭們圍繞大模型生态正迎來新一輪道路之争:面對參數“天花闆”,大模型的未來走向封閉還是開放?

開源模型可在家用電腦運作

8月3日,國内AI開發者社群“魔搭”(ModelScope)上架兩款開源模型Qwen-7B和Qwen-7B-Chat,分别為阿裡雲通義千問的70億參數通用模型和對話模型,兩款模型均開源、免費、可商用。

Meta硬剛OpenAI,國産“小模型”官宣開源,“百模大戰”走向何方?

據介紹,通義千問Qwen-7B是支援中英等多種語言的基座模型,在超過2萬億token(文本機關)資料集上訓練,而Qwen-7B-Chat是基于基座模型的中英文對話模型,已達到人類的認知水準。簡而言之,前者好比“地基”,後者是地基之上的“房屋”。

經過實際測試顯示,Qwen-7B模型的綜合表現不俗。其中在英文能力測評基準MMLU上,得分普遍高于同等參數規模的主流模型,甚至趕超120億、130億參數規模的部分模型。而在中文評測C-Eval驗證集上,該模型也取得了同等規模的最高分。在數學解題能力評測GSM8K和代碼能力評測HumanEval方面,Qwen-7B模型表現也名列前茅。

也就是說,在中英文寫作、數學解題以及寫代碼等考試中,Qwen-7B模型妥妥是一名“學霸”,分數甚至超過同等參數級别的國際主流大模型。

Meta硬剛OpenAI,國産“小模型”官宣開源,“百模大戰”走向何方?

除此之外,業界更關心Qwen-7B模型的易用性。衆所周知,主流大模型的訓練和運作需要專門的AI訓練晶片(如英偉達A100),這些晶片不僅售價昂貴,每塊英偉達A100售價高達1萬—1.5萬美元,而且被歐美等國家壟斷,國内幾乎無法購買。而國産Qwen-7B模型支援消費級顯示卡上部署,相當于高性能的家用電腦就能運作該模型。

得益于免費商用加上低門檻,Qwen-7B模型的上架,引起了AI開發者的關注。短短一天,在代碼托管平台GitHub上,Qwen-7B模型已被千餘名開發者标星收藏,絕大多數提問者均為中文開發者。正如阿裡雲在聲明中所說:“相比英文世界熱鬧的AI開源生态,中文社群缺少優秀的基座模型。通義千問的加入有望為開源社群提供更多選擇,推動中國AI開源生态建設。”

開源還是封閉

事實上,Qwen-7B模型并非首款開源的大模型,其實ChatGPT的“前輩”GPT-2也是徹底開源的,其代碼和架構在網際網路上均可免費使用,還有相關論文可供查閱。而OpenAI在ChatGPT火遍全球之後選擇了閉源發展,GPT-3和GPT-4等模型代碼已成為OpenAI的商業機密。

所謂開源,就是開放源代碼。比如大模型一旦宣布開源後,在版權限制範圍内,任何人都可以公開擷取模型源代碼,并進行修改甚至重新開發。打個簡單的比方,源代碼就像是一幅畫的底稿,所有人可以照着底稿填色創造自己的藝術畫作。

閉源與開源正好相反,隻有源代碼所有者(通常是軟體開發商)掌握代碼修改的權力,其他人沒辦法擷取“底稿”,隻能向軟體開發商購買成品。

開源和閉源的優劣都非常明顯。大模型開源後無疑會吸引更多開發者,大模型的應用也将更加豐富,但相應的監管和商業化将成為難題,容易出現“替人做嫁衣”的尴尬局面。畢竟,開源考慮的是生态共榮,到底能賺多少錢的經濟賬,這一階段很難算清楚,而這些難題恰好是閉源的機遇。

開源還是閉源,這是一道大模型的生死題,國際巨頭已給出答案。

Meta硬剛OpenAI,國産“小模型”官宣開源,“百模大戰”走向何方?

Facebook母公司Meta在上個月釋出了大模型Llama2,開源免費給開發者和商業夥伴使用,而OpenAI則堅定地選擇了GPT-4閉源發展,不僅能保持OpenAI在生成式AI行業的領先地位,還能賺取更多營收。根據權威雜志《Fast Company》預測,OpenAI在2023年的收入将達到2億美元,包括提供API資料接口服務、聊天機器人訂閱服務費等。

國内大模型也逐漸開始“分道揚镳”。阿裡雲的通義大模型早在今年4月宣布向企業開放,Qwen-7B模型的開源将開放之路走得更遠一些。百度的文心一言也在近期宣布,将逐漸開放插件生态給第三方開發者,幫助開發者基于文心大模型打造自己的應用。

相比之下,華為則不走尋常路。在釋出盤古大模型3.0時,華為雲公開表示,盤古大模型全棧技術均由華為自主創新的,沒有采用任何開源技術,同時盤古大模型将聚集無數行業大資料(涉及行業機密等),是以盤古大模型在未來也不會開源。

大參數還是小而美

除此之外,Qwen-7B模型的開源,還帶來了另一個思考:我們到底需要多大參數的大模型?

不可否認,大模型的參數規模正在不斷膨脹。以OpenAI旗下的GPT大模型為例,GPT-1僅包含1.17億參數,GPT-3的參數已經高達1750億,幾年時間内增長了1000多倍,而GPT-4的參數已超過萬億級别。

國内大模型亦是如此。百度文心大模型為2600億參數,騰訊混元大模型達到千億級參數,華為盤古大模型參數規模推測接近GPT-3.5,阿裡通義大模型官宣已達10萬億參數……據不完全統計,中國10億參數規模以上的大模型至少有79個。

遺憾的是,參數越大并不代表大模型的能力越強。在世界人工智能大會上,騰訊雲副總裁吳運聲有一個很恰當的比喻:“就像運動員練體力,舉重運動員要舉200斤杠鈴,遊泳運動員舉100斤就夠了,不同類型的運動員不需要每個人都練習200斤重的杠鈴。”

衆所周知,大模型的參數越高,消耗的資源和成本也越相應增加。而深耕行業的垂直類大模型,并不需要一味追求“規模大”或是“參數高”,更應該根據客戶需求制定相關的模型參數。比如生物大模型BioGPT-Large僅有15億參數,而在生物醫學專業測試中的準确率,卻優于千億級别參數的通用大模型。

OpenAI聯合創始人Sam Altman也公開表示,OpenAI正接近LLM(大型語言模型)規模的極限,規模越大并不一定意味着模型越好,參數規模不再是衡量模型品質的重要名額。

火山引擎智能算法負責人吳迪也有類似觀點,長期來看,降低成本将成為大模型應用落地的重要因素,“一個經過良好精調的中小規格模型,在特定工作上的表現可能不亞于通用大模型,而成本可能僅為原來的十分之一。”

當下,國内科技大廠幾乎都拿到了大模型的入場券,但真正的道路抉擇才剛開始。

欄目主編:李晔 題圖來源:圖蟲 圖檔編輯:笪曦

來源:作者:查睿

繼續閱讀