我们能相信 AI 给 AI 打分吗?深度解析 JUDGE-BENCH

在自然语言处理 (NLP) 飞速发展的世界中,我们正面临一个瓶颈。我们生成文本的速度比以往任何时候都快,但评估这些文本的质量仍然是一个缓慢、昂贵且困难的过程。传统上,评估的“黄金标准”是人类判断。如果你想知道翻译是否准确,或者聊天机器人是否有帮助,你会去问人类。

然而,让人类评估的规模跟上 AI 发展的步伐几乎是不可能的。这催生了一个新兴趋势: LLM 作为裁判 (LLM-as-a-judge) 。 这个想法很简单——使用像 GPT-4 这样强大的模型给其他模型的输出打分。它快速、便宜且可扩展。但它准确吗?

最近一篇题为 “LLMs instead of Human Judges? A Large Scale Empirical Study across 20 NLP Evaluation Tasks” 的论文直面了这个问题。研究人员推出了 JUDGE-BENCH , 这是一个旨在仔细审查大语言模型 (LLM) 作为评估者可靠性的大型基准测试。在这篇文章中,我们将探讨他们的方法、研究结果的细微差别,以及为什么我们目前对取代人类裁判仍需保持谨慎。

“感觉检查”的问题

在深入了解这篇论文的贡献之前,有必要了解当前的背景。当开发人员创建一个新的 LLM 时,他们需要知道它是否有效。虽然存在自动化指标 (如用于翻译的 BLEU) ,但它们往往无法捕捉细微差别。人类评估虽然更好,但需要聘请专家或众包工人,这既耗时又费钱。

使用 LLM 来评估其他 LLM 解决了资源问题。你可以向“裁判 LLM”提供一个提示词和两个回复,然后问: “哪个回复更好?”

然而,风险在于信任 。 众所周知,LLM 会产生幻觉、带有偏见,并且在推理方面存在困难。如果一个 LLM 裁判偏爱某种特定的写作风格,或者因为误解安全准则而拒绝给一个安全的提示词评分,那么我们对底层模型的评估就会出现缺陷。此外,由于像 GPT-4 这样的专有模型会在幕后发生变化,可复现性变成了一场噩梦。

介绍 JUDGE-BENCH

为了确定 LLM 是否能胜任这项任务,作者创建了 JUDGE-BENCH。这不仅仅是一个单一的数据集;它是一个包含 20 个不同的 NLP 数据集的可扩展集合,这些数据集都已经包含了人类标注。

其目标是覆盖广泛的语言属性。研究人员不仅想知道 LLM 是否能发现语法错误;他们还想知道它是否能评估:

  • 毒性与安全性 (Toxicity and Safety) : 内容是否有害?
  • 创造性 (Creativity) : 对话是否引人入胜?
  • 事实一致性 (Factual Consistency) : 摘要是否与源文本相符?
  • 推理 (Reasoning) : 逻辑论证是否合理?

多样化的测试场

这篇论文最大的贡献之一是所选数据的多样性。研究人员根据被评估文本的来源将数据集分为两大类:

  1. 人类生成项目 (Human-Generated Items) : 评估人写的文本 (例如,评估人类评论的毒性) 。
  2. 模型生成项目 (Model-Generated Items) : 评估 AI 系统生成的文本 (例如,判断机器翻译的质量) 。

这种区分至关重要,因为先前的研究表明,LLM 可能对看起来像它们自己输出的文本存在偏见。

他们还改变了所需的判断类型。有些任务需要分类 (Categorical) 判断 (例如,“这句话合乎语法吗?是/否”) ,而其他任务则需要分级 (Graded) 判断 (例如,“请按 0 到 100 分给这篇翻译打分”) 。

图 1: 专家和非专家人类标注员以及 LLM 对涉及人类生成文本 (左) 和机器生成文本 (右) 的两个任务进行的评估。

图 1 所示,评估格式可能有很大差异。在左侧,我们看到一个涉及“Switchboard 电话语料库”的任务,模型必须按 1 到 5 的等级评估一个回复属于对话的可能性。在右侧,一个机器翻译任务 (WMT 2023) 要求根据特定质量标准给出 0 到 100 之间的细粒度评分。该图还强调了基本事实 (ground truth) 来自不同类型的人类: 非专家 (左) 和专家 (右) 。

参赛选手

该研究评估了 11 个当前的 LLM , 混合了专有巨头和开放权重模型,以观察可访问性与性能之间的相关性。阵容包括:

  • 专有模型: GPT-4o, Gemini-1.5, Command R+。
  • 开放权重模型: Llama-3.1 (8B 和 70B) , Mixtral (8x7B 和 8x22B) 等。

研究人员使用提供给人类标注员的原始指令作为 LLM 的提示词。这确保了公平比较: AI 获得的评估标准与人类裁判完全相同。

实验挑战: 拒绝回答与防护栏

在研究人员将分数进行关联之前,他们遇到了一个实际问题: LLM 的拒绝

现代模型都加强了安全防护栏。当被要求评估有关医疗建议或毒性的数据集时,许多模型干脆拒绝回答,理由是安全策略——即使任务只是评估文本,而不是生成文本。

图 6: 我们在 11 个模型上测试的各个数据集的平均有效响应率。

图 6 生动地展示了这个问题。虽然模型在诸如“摘要”或“翻译”等中性任务上具有近乎完美的响应率,但在“毒性与安全性”任务中,有效响应率显著下降。在 Medical-safety 数据集 (最左边的绿色条) 中,许多模型难以提供有效的判断。

这造成了一个盲点。如果一个 LLM 裁判因为认为话题敏感而拒绝评估回复,那么它作为该领域的评估工具就是失败的。

关键结果: LLM 是好裁判吗?

为了衡量性能,作者将 LLM 的判断与人类的“基准真相”进行了比较。他们对分类数据使用了 Cohen’s Kappa (检查超出偶然的一致性) ,对分级数据使用了 Spearman 相关系数 (检查模型是否按与人类相同的顺序对项目进行排名) 。

主要结果喜忧参半: LLM 的表现并不一致。

虽然 GPT-4o 通常表现最好,在多项任务中排名第一,但它并非普遍的赢家。像 Llama-3.1-70B 和 Mixtral-8x22B 这样的开放模型通常紧随其后,而在某些特定的细分领域 (如句子可接受性) ,它们甚至超过了专有模型。

然而,原始分数讲述了一个复杂的故事。LLM 裁判的可靠性很大程度上取决于它在评判什么以及它试图模仿

1. “感觉”因素: LLM 能评判哪些属性?

并非所有的语言属性都是平等的。LLM 可能非常擅长发现语法错误,但在判断对话是否有趣方面却很糟糕。

图 3: 分级判断属性的相关性。当属性存在于多个数据集中时显示平均值和误差线。

图 3 按被评估的具体属性分解了相关性得分。

  • 高性能: 看一下 “Fluency” (流畅度)“Coherence” (连贯性) 的柱状条。像 Gemini-1.5 和 GPT-4o 这样的模型在这里取得了令人尊敬的相关性。这些是 LLM 在训练过程中经常遇到的结构属性。
  • 低性能: 现在看看 “Engaging” (吸引力) 。 相关性极低,几乎每个模型都接近于零。文本是否“引人入胜”是一种高度主观的人类体验,目前的模型难以量化这一点。
  • 不一致性: 注意方差。没有任何一个模型在每个类别中都占主导地位。Mixtral-8x22B (橙色条) 在“连贯性”方面表现出色,但在“相关性 (Relevance) ”方面表现不佳。

这表明,在评估的所有方面都使用单一的“裁判 LLM”是一种冒险的策略。

2. 专业差距: 专家与非专家

论文中最引人入胜的发现之一涉及等式中的人类一方。人类标注员分为两个阵营: 专家 (语言学家、专业翻译) 和非专家 (众包工人) 。

研究人员分析了已知人类标注员专业水平的数据集。他们发现了一个惊人的趋势: LLM 与非专家的一致性要好得多。

图 2: 在具有分级标注的数据集中,模型与人类专家与非专家的平均相关性。

图 2 可视化了这一差距。对于几乎每一个测试的模型,蓝色条 (非专家) 都显著高于橙色条 (专家) 。

为什么会这样?作者推测,非专家标注员依赖于“表面启发式特征”——诸如句子长度、词汇复杂性或简单的流畅度等。LLM 作为统计引擎,也非常擅长检测这些表面特征。另一方面,专家应用的是模型所遗漏的更深层次的、特定领域的标准。

这意味着,虽然 LLM 可能擅长预测普通用户的想法,但它们尚未准备好取代专业的编辑审查。

3. “机器偏见”

最后,该研究验证了社区中常被引用的一个担忧: LLM 是否偏爱机器生成的文本?

研究人员比较了模型在包含人类撰写的文本机器生成的文本的数据集上的表现。

图 4: 涉及人类语言与机器生成输出的测试项目上的得分 (分类标注为 Cohen’s \\(\\kappa\\),分级标注为 Spearman 相关系数) 。

图 4 揭示了明显的差异。在几乎所有情况下,模型在评估人类文本 (绿色条) 时与人类判断的一致性要高于评估机器生成文本 (橙色/红色条) 时的一致性。

这有点讽刺。“LLM 作为裁判”的主要用例是评估其他 AI 模型 (机器生成的文本) 。然而,这正是它们表现较差的领域。作者认为这与之前关于“自我偏见”的发现一致,即模型偏爱其自身训练数据或架构典型的统计模式,从而可能偏离了人类的质量标准。

结论: 谨慎行事

JUDGE-BENCH 的发现描绘了当前自动化评估状态的一幅微妙图景。用一个通用的“AI 裁判”取代人类工作的梦想尚未成为现实。

对于学生和从业者来说,关键要点是:

  1. 验证是强制性的: 你不能简单地插入 GPT-4o 并假设它的判断是有效的。你必须针对你的具体任务,将 LLM 裁判与人类标注进行验证。
  2. 了解你的指标: LLM 在检查指令遵循和流畅度方面是可靠的,但在评估参与度或安全性方面是不可靠的。
  3. 开源正在迎头赶上: 你并不总是需要最昂贵的专有模型。像 Llama-3.1-70B 这样的大型开放权重模型正成为具有竞争力的评估者。
  4. “人”的因素依然存在: 由于 LLM 与非专家的一致性更好,它们可能不适合需要专家知识的高风险领域 (如医疗或法律 NLP) 。

JUDGE-BENCH 的发布为社区提供了一个标准工具来跟踪该领域的进展。在模型能够消除与专家裁判的差距并在没有偏见的情况下处理机器生成的文本之前,人类评估仍然是无可争议的黄金标准。