天天看點

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

AI大神李沐老師時隔1年多,終于回歸B站“填坑”經典論文精讀系列了!

沒錯,最新主角兒還是Llama-3.1:

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

在這個18分鐘左右的視訊中,李沐老師手把手教我們讀Llama-3.1技術論文,甚至還爆料了一些八卦。(指路7分50秒左右)

他提到,Llama團隊在訓練最大模型時,其實一開始同時訓練了MoE模型和稠密模型,但是前者後來失敗了,是以最後隻發了一個簡單版本。

更多細節大家可以去看原視訊,悄咪咪透露,李沐老師剛一上線,播放瞬間破萬了。

一大批研究僧們正聞風趕來,瞧瞧熱一就知道大家的精神狀态了:

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

(視訊位址在文末領取)

與此同時,大模型競技場排名更新,Llama-3.1-405B代表開源模型首次跻身競技場前三,僅次于GPT-4o和Claude-3.5-Sonnet。

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

當然了,這一結果可能并不意外,Meta官方早就暗戳戳地将這幾個作了一番比較。

同樣是人類評估,Llama-3.1-405B和另外兩個打得不分上下。

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

另外我們看到,Llama-3.1-405B不僅整體能打,在單項(編碼、數學、指令遵循、硬提示)中依然牢牢占據前三。

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

值得一提的是,Llama-3.1-70B也來到了總榜第9,整體置信水準相較之前有了大幅提高。

不過最令人驚喜的是,與此同時,國外網友也對405B的新戰績發來賀電,更有人“貼心”提醒:

405B隻接受過“計算最優”訓練,他們(指Meta)本來可以繼續前進,下一次疊代将會是驚人的。
失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

Okk,知道Llama-3.1-405B很膩害了!

這不,僅釋出一周,網友們已經玩出花了……

拿來搞生産

搞生産第一步,先在本地跑起來試試~

Open Interpreter(一個讓LLMs在使用者本地運作的項目)技術社群經理為我們展示了他的成果——

讓Llama-3.1-8B在樹莓派上運作,僅用到CPU。

【此處無法插入視訊,遺憾……可到量子位公衆号檢視~】

方法嘛,隻需在GitHub或Hugging Face下載下傳llamafile檔案,配置參數後即可。

據他透露, 這項嘗試使用了Raspberry Pi 5(8GB記憶體)、M.2 Hat和Hailo AI子產品,且采用了4-bit quantization(4位量化)。

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

不過小哥也調侃,這家夥運作幾句話就能真·燒幹CPU。

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

接下來,小哥已經在網友的催促下磨刀霍霍向405B了~

除了上面這個例子,還有網友用Llama-3.1-405B在任何GitHub倉庫上開始建立聊天機器人。

【此處無法插入視訊,遺憾……可到量子位公衆号檢視~】

而且是不花錢那種,Hugging Face免費提供了建立新助手的功能。

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

不過Groq工程師Rick Lamers在嘗試後提出質疑:

目前的RAG管道可能存在問題,容易産生幻覺。
失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

但不管怎樣,網友們想嘗試的心還是攔不住了~

另外,除了實實在在拿出東西,還有網友拿Llama-3.1-405B放起了煙霧彈。

就在剛剛,網友Hassan宣布:

使用Llama-3.1-405B生成完整的React應用程式。
失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

好家夥,這下開發APP豈不是更簡單了!

雖然還未正式開源,但底下網友們已經開始排好隊了。

失聯大神李沐B站複更:領讀Llama 3.1論文;競技場Llama 3.1排第三

更多玩法歡迎大家自行解鎖~

— 完 —

量子位 QbitAI · 頭條号簽約

關注我們,第一時間獲知前沿科技動态

繼續閱讀