天天看點

ChatGLM-6B:可本地部署的開源雙語對話語言模型

作者:GitHub項目精選

大家好,又見面了,我是 GitHub 精選君!

背景介紹

在處理雙語對話時,我們經常會遇到各種語言模型不足的問題,包括語義了解、回答準确性等。這些問題限制了對話系統的表現,給開發者帶來了挑戰。而如今出現的大模型在以上問題有不錯的表現,但是一般大模型在部署上需要非常的資源,難以本地化的部署,而今天要推薦的開源項目 ChatGLM-6B 作為一種開源的雙語對話語言模型,正是為了解決這些核心痛點而誕生的。

ChatGLM-6B 項目在 GitHub 有超過 30.4k Star,用一句話介紹該項目就是:“ChatGLM-6B: An Open Bilingual Dialogue Language Model | 開源雙語對話語言模型”。

ChatGLM-6B:可本地部署的開源雙語對話語言模型

項目介紹

ChatGLM-6B基于 General Language Model (GLM) 架構,是一個開源的中英雙語對話語言模型,擁有62億參數。該模型結合了模型量化技術,使用者可以将其部署在低端硬體上(隻需要6GB顯存),實作本地化部署。它通過訓練超過1T辨別符的中英雙語對話資料,具備了中文問答、對話回答和對話生成的優化能力。通過ChatGLM-6B,使用者可以進行微調、回報自助、人類回報強化學習等技術的應用。62億參數的ChatGLM-6B已經能夠生成相當合理人類偏好的回答,更多資訊請參考我們的部落格 https://chatglm.cn/blog。

主要特點:

  • 開源的雙語對話語言模型
  • 基于62億參數的ChatGLM-6B,可在較少資源下本地部署
  • 與ChatGPT技術相似,對中文問答和對話具有優化能力

以下是一個對應的對話示例:

ChatGLM-6B:可本地部署的開源雙語對話語言模型

以下是該項目 Star 趨勢圖(代表項目的活躍程度):

ChatGLM-6B:可本地部署的開源雙語對話語言模型

更多項目詳情請檢視如下連結。

開源項目位址:https://github.com/THUDM/ChatGLM-6B

開源項目作者:THUDM

以下是參與項目建設的所有成員:

ChatGLM-6B:可本地部署的開源雙語對話語言模型

關注我們,一起探索有意思的開源項目。

繼續閱讀