清華大學最近開源了ChatGLM 通用語言模型
特性:
1、支援中英雙語的對話語言模型
2、基于 General Language Model (GLM) 架構,具有 62 億參數。
3、結合模型量化技術,使用者可以在消費級的顯示卡上進行本地部署(INT4 量化級别下最低隻需 6GB 顯存)
4、ChatGLM-6B 使用了和 ChatGPT 相似的技術,針對中文問答和對話進行了優化。
5、經過約 1T 辨別符的中英雙語訓練,輔以監督微調、回報自助、人類回報強化學習等技術的加持,62 億參數的 ChatGLM-6B 已經能生成相當符合人類偏好的回答
缺陷:
1、事實性/數學邏輯錯誤
2、可能生成有害/有偏見内容,
3、較弱的上下文能力,自我認知混亂
位址:網頁連結
已經是國内高校一個不錯的嘗試了
#人工智能#