AI大神李沐老師時隔1年多,終于回歸B站“填坑”經典論文精讀系列了!
沒錯,最新主角兒還是Llama-3.1:
在這個18分鐘左右的視訊中,李沐老師手把手教我們讀Llama-3.1技術論文,甚至還爆料了一些八卦。(指路7分50秒左右)
他提到,Llama團隊在訓練最大模型時,其實一開始同時訓練了MoE模型和稠密模型,但是前者後來失敗了,是以最後隻發了一個簡單版本。
更多細節大家可以去看原視訊,悄咪咪透露,李沐老師剛一上線,播放瞬間破萬了。
一大批研究僧們正聞風趕來,瞧瞧熱一就知道大家的精神狀态了:
(視訊位址在文末領取)
與此同時,大模型競技場排名更新,Llama-3.1-405B代表開源模型首次跻身競技場前三,僅次于GPT-4o和Claude-3.5-Sonnet。
當然了,這一結果可能并不意外,Meta官方早就暗戳戳地将這幾個作了一番比較。
同樣是人類評估,Llama-3.1-405B和另外兩個打得不分上下。
另外我們看到,Llama-3.1-405B不僅整體能打,在單項(編碼、數學、指令遵循、硬提示)中依然牢牢占據前三。
值得一提的是,Llama-3.1-70B也來到了總榜第9,整體置信水準相較之前有了大幅提高。
不過最令人驚喜的是,與此同時,國外網友也對405B的新戰績發來賀電,更有人“貼心”提醒:
405B隻接受過“計算最優”訓練,他們(指Meta)本來可以繼續前進,下一次疊代将會是驚人的。
Okk,知道Llama-3.1-405B很膩害了!
這不,僅釋出一周,網友們已經玩出花了……
拿來搞生産
搞生産第一步,先在本地跑起來試試~
Open Interpreter(一個讓LLMs在使用者本地運作的項目)技術社群經理為我們展示了他的成果——
讓Llama-3.1-8B在樹莓派上運作,僅用到CPU。
【此處無法插入視訊,遺憾……可到量子位公衆号檢視~】
方法嘛,隻需在GitHub或Hugging Face下載下傳llamafile檔案,配置參數後即可。
據他透露, 這項嘗試使用了Raspberry Pi 5(8GB記憶體)、M.2 Hat和Hailo AI子產品,且采用了4-bit quantization(4位量化)。
不過小哥也調侃,這家夥運作幾句話就能真·燒幹CPU。
接下來,小哥已經在網友的催促下磨刀霍霍向405B了~
除了上面這個例子,還有網友用Llama-3.1-405B在任何GitHub倉庫上開始建立聊天機器人。
【此處無法插入視訊,遺憾……可到量子位公衆号檢視~】
而且是不花錢那種,Hugging Face免費提供了建立新助手的功能。
不過Groq工程師Rick Lamers在嘗試後提出質疑:
目前的RAG管道可能存在問題,容易産生幻覺。
但不管怎樣,網友們想嘗試的心還是攔不住了~
另外,除了實實在在拿出東西,還有網友拿Llama-3.1-405B放起了煙霧彈。
就在剛剛,網友Hassan宣布:
使用Llama-3.1-405B生成完整的React應用程式。
好家夥,這下開發APP豈不是更簡單了!
雖然還未正式開源,但底下網友們已經開始排好隊了。
更多玩法歡迎大家自行解鎖~
— 完 —
量子位 QbitAI · 頭條号簽約
關注我們,第一時間獲知前沿科技動态