天天看點

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

作者:華爾街見聞

4月18日,AI圈再迎重磅消息,Meta帶着号稱“有史以來最強大的開源大模型”Llama 3登場了。

Meta本次開源了Llama 3 8B與70B兩款不同規模的模型,供外部開發者免費使用,未來幾個月,Meta 将陸續推出一系列具備多模态、多語言對話、更長上下文視窗等能力的新模型。其中,大版本的Llama 3将有超過4000億參數有望與Claude 3“一較高下”。

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

與此同時,Meta首席執行官紮克伯格宣布,基于最新的Llama 3模型,Meta AI助手現在已經覆寫Instagram、WhatsApp、Facebook等全系應用,并單獨開啟了網站,還有一個圖像生成器,可根據自然語言提示詞生成圖檔。

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

Llama 3的出現直接對标OpenAI的GPT-4,與“并不Open”的OpenAI截然不同,在AI圈圍繞開源或閉源的路線争論不休之時,Meta堅定沿着開源路線朝AGI的聖杯發起了沖鋒,為開源模型扳回一局。

知情人士透露,研究人員尚未開始對Llama 3進行微調,還未決定Llama 3是否将是多模态模型。有消息稱,正式版的Llama 3将會在今年7月正式推出。

Meta AI 首席科學家、圖靈獎得主Yann LeCun一邊為Llama 3的釋出“搖旗呐喊”,一邊預告未來幾個月将推出更多版本,稱Llama 3 8B和Llama 3 70B是目前同體量下,性能最好的開源模型。llama 3 8B在某些測試集上性能比llama 2 70B還要強。

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

就連馬斯克也現身于該評論區,一句簡潔的“Not bad”表達了對 Llama 3 的認可和期待。

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

英偉達進階科學家Jim Fan認為,Llama 3的推出已經脫離了技術層面的進步,更是開源模型與頂尖閉源模型可分庭抗禮的象征。

從Jim Fan分享的基準測試可以看出,Llama 3 400B 的實力幾乎媲美 Claude“超大杯”以及新版 GPT-4 Turbo,将成為“分水嶺”,相信它将釋放巨大的研究潛力,推動整個生态系統的發展,開源社群或将能用上GPT-4級别的模型。

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

公布當天恰逢斯坦福大學教授,AI頂尖專家吳恩達的生日,吳恩達直言,Llama 3的釋出是自己這輩子收到過的最好的禮物,謝謝你Meta!

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

OpenAI創始成員之一、特斯拉前AI總監Andrej Karpathy也對Llama 3表達了贊許。作為大語言模型領域的先驅之一,Karpathy認為Llama3的性能已接近GPT-4 的水準:

Llama3是Meta 釋出的看起來非常強大的模型。堅持基本原則,在可靠的系統和資料工作上花費大量高品質時間,探索長期訓練模型的極限。我也對 400B模型非常興奮,它可能是第一個 GPT-4 級别的開源模型。我想很多人會要求更長的上下文長度。

我希望能有比 8B 更小參數,理想規模在0.1B到1B左右的模型,用于教育工作、(單元)測試、嵌入式應用等。

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

Rebuy公司AI總監、深度學習領域的博士Cameron R. Wolfe認為,Llama 3證明了訓練優秀大語言模型的關鍵在于資料品質。他詳細分析了Llama 3在資料方面做出的努力,包括:

1)15萬億個token的預訓練資料: 比Llama 2多7倍,比DBRX的12萬億個還要多;

2)更多代碼資料: 預訓練過程中包含更多代碼資料,提升了模型的推理能力;

3)更高效的tokenizer: 擁有更大的詞彙表(128K tokens),提高了模型的效率和性能。

Llama 3王者歸來,可與GPT-4分庭抗禮,開源模型即将追上閉源模型了?

在Llama 3釋出後,小紮向媒體表示,“我們的目标不是與開源模型競争,而是要超過所有人,打造最領先的人工智能。”未來,Meta團隊将會公布Llama 3的技術報告,披露模型更多的細節。

這場關于開源與閉源的辯論還遠未結束,暗中蓄勢待發的 GPT-4.5/5 也許會在今年夏天到來,AI領域的大模型之戰還在上演。

本文來自華爾街見聞,歡迎下載下傳APP檢視更多