天天看點

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

作者:新智元

編輯:編輯部

【新智元導讀】初創團隊Mistral AI再次放出一條磁力鍊,281GB檔案解禁了最新的8x22B MoE模型。

一條磁力鍊,Mistral AI又來悶聲不響搞事情。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

281.24GB檔案中,竟是全新8x22B MOE模型!

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

全新MoE模型共有56層,48個注意力頭,8名專家,2名活躍專家。

而且,上下文長度為65k。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

網友紛紛表示,Mistral AI一如既往靠一條磁力鍊,掀起了AI社群熱潮。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

對此,賈揚清也表示,自己已經迫不及待想看到它和其他SOTA模型的詳細對比了!

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

靠磁力鍊火遍整個AI社群

去年12月,首個磁力鍊釋出後,Mistral AI公開的8x7B的MoE模型收獲了不少好評。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

基準測試中,8個70億參數的小模型性能超越了多達700億參數的Llama 2。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

它可以很好地處理32k長度的上下文,支援英語、法語、意大利語、德語和西班牙語,且在代碼生成方面表現出強大的性能。

今年2月,最新旗艦版模型Mistral Large問世,性能直接對标GPT-4。

不過,這個版本的模型沒有開源。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

Mistral Large具備卓越的邏輯推理能力,能夠處理包括文本了解、轉換以及代碼生成在内的複雜多語言任務。

也就是半個月前,在一個Cerebral Valley黑客松活動上,Mistral AI開源了Mistral 7B v0.2基礎模型。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

這個模型支援32k上下文,沒有滑動視窗,Rope Theta = 1e6。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

現在,最新的8x22B MoE模型也在抱抱臉平台上上線,社群成員可以基于此建構自己應用。

剛剛,Mistral AI最新磁力鍊放出!8x22B MoE模型,281GB解禁

繼續閱讀