昨晚 Meta 釋出了 Llama 3 8B 和 70B 模型,Llama 3 指令調整模型針對對話/聊天用例進行了微調和優化,在常見基準測試中優于許多現有的開源聊天模型。比如,Gemma 7B 和 Mistral 7B。
Llama 3 模型将資料和規模提升到了新的高度。它是在 Meta 最近釋出的兩個定制的 24K GPU 叢集上對超過 15T token 的資料進行訓練的,這個訓練資料集比 Llama 2 大 7 倍,包括多 4 倍的代碼。這使得 Llama 模型的能力達到了目前的最高水準,它支援 8K 上下文長度,是 Llama 2 的兩倍。
下面我将介紹 6 種方式,讓你快速體驗最新釋出的 Llama 3!
線上體驗 Llama 3
HuggingChat
https://huggingface.co/chat/
llama2.ai
https://www.llama2.ai/
本地體驗 Llama 3
LM Studio
https://lmstudio.ai/
CodeGPT
https://marketplace.visualstudio.com/items?itemName=DanielSanMedium.dscodegpt&ssr=false
使用 CodeGPT 前,記得先使用 Ollama 拉取相應的模型。比如,拉取 llama3:8b 模型:ollama pull llama3:8b。如果你本地尚未安裝 ollama,可以閱讀 “部署本地的大語言模型,隻需幾分鐘!” 這篇文章。
Ollama
運作 Llama 3 8B 模型:
ollama run llama3
運作 Llama 3 70B 模型:
ollama run llama3:70b
Open WebUI & Ollama
https://pinokio.computer/item?uri=https://github.com/cocktailpeanutlabs/open-webui