天天看点

大模型系列:LLM-Eval大模型评测理论简述

作者:极客ai

关键词:大语言模型,LLM

前言

随着越来越多的大语言模型被发布和使用,如何对大模型的能力进行评测(LLM-Eval)成为一个新的课题,本篇对大模型评测的基础知识做简要综述介绍。

内容摘要

  • 为什么需要做大模型评测
  • 需要评测大模型的哪些能力
  • 如何评测大模型

为什么需要做大模型评测

对大模型做评测的必要性来源于以下多方面原因:

  • 模型好坏的统一判断标准:如果不构建一个客观公正和定量的模型评测体系,则无法判断众多大模型之间的能力高低,用户无法了解模型的真实能力和实际效果。
  • 模型迭代优化的依据:对于开发者而言,如果不能定量评估模型的能力,则无法跟踪模型能力的变化,无法知道模型的优势和劣势,从而无法有针对的指定模型提升策略,影响模型的迭代升级。
  • 监管安全的要求考虑:对于法律、医疗等关乎社会安全的领域,需要对大模型进行系统的评测,以确认大模型适合在该领域进行使用,而不会造成安全事故。
  • 领域基础模型的选择依据:在不同的领域下,大模型的能力表现各有优劣,需要引入评测体系对大模型在各个领域下的能力进行统一测试,选择出最适合该特定领域的大模型作为基座,从而更好的产业落地。
大模型系列:LLM-Eval大模型评测理论简述

OpenCompass官网的模型定量评分

需要评测大模型的哪些能力

大模型评测大致包含自然语言处理、知识能力、领域模型、对齐评测、安全性等多个方面,其中自然语言处理是相对简单的的测评任务,包含NLU自然语言理解和NLG自然语言生成,NLU中包括情感分析、文本分类、信息抽取等典型任务,NLG包括机器翻译、自动摘要等任务。

大模型系列:LLM-Eval大模型评测理论简述

大模型评测涉及内容

传统的NLP任务大多是为了衡量特定且相对简单的能力而设计的,而大型语言模型已经展示了各种新的能力,并将评估重点转移到更一般和复杂的技能上,如广泛的世界知识和复杂的推理。大模型在预训练过程中吸收了海量数据的知识,因此需要对大模型的知识能力进行考量,相比于NLP任务,知识能力使得大模型更加接近一个智能体。

知识能力测评包含知识问答、逻辑推理、工具学习等方面,一般的通过Prompt提示语使得大模型回忆起在预训练过程中学到的知识,来完成知识问答任务;CoT思维链的方式,能够使得模型能够逐步思考,从而解决逻辑推理类的任务;工具学习(Tool Learning)的目标是让大模型能够根据人类的指示和操作来使用工具,以解决特定任务,比如让大模型调用搜索引擎或者API,将搜索返回结果融合预训练知识来增强答案生成。

大模型系列:LLM-Eval大模型评测理论简述

工具增强学习的示意图

相比于通识知识,垂直领域的知识能力对于产业落地更加重要,因此还存在各个垂直领域的知识测评,包括教育、医疗、金融、法律等大模型,该测评用于选择合适的大模型作为垂直领域的模型基座。

额外的,除了NLP任务和知识能力,大模型回答内容的对齐性也在测评的范畴之内。对齐性是指大模型的回答需要符合人类价值观和偏好。一般的,期望大模型的回答不能违背伦理道德,不能带有偏见歧视等内容,另一方面需要测评大模型回答的真实性,防止生成不准确或缺乏事实精确性的内容,导致该问题的原因可能在训练数据集包含错误的细节、过时的事实,甚至是故意的错误信息,从而损害了大语言模型的真实性。

最后还需要考察大模型的安全性,大模型不能生成有害的内容,同时需要具备一定的鲁棒性,以防止故意向模型输入一些微小的扰动,使得模型输出有害的内容,给模型安全带来威胁。

如何评测大模型

大模型评测分为客观评测和主观评测。客观评测是有标准答案的,一般通过问答题、选择题的形式输入给大模型,让大模型回答出答案和正确答案进行比对。

对于NLP任务,采用特定任务的评价指标来考量大模型,比如文本分类使用准确率,机器翻译使用BLEU来打分。对于知识能力,通过做题的方式来考量大模型,形如中文评测数据集C-EVAL构造了多个垂直领域的选择题,通过回答的正确率来评测大模型。另外对于Base模型和Chat模型,对于Base模型需要在Prompt中加入一定的范例,而Chat模型由于经过了指令微调和RLHF,一般直接采用对话的方式即可获得模型输出的答案。

大模型系列:LLM-Eval大模型评测理论简述

C-EVAL数据集的问题分类

主观评测一般使用在没有标准答案的场景,比如让多个大模型基于题目写一篇作文,如何评价它们输出的作文质量的高低,此时可以采用人工介入打分的方式,也可以引入一个裁判模型对这些作文进行打分。

全文完毕,后续将分享大模型测评数据集、大模型测评框架的使用和实践。

继续阅读