悄无声息的泄露: 数据污染如何藏身于语言障碍之后
大型语言模型 (LLM) 的最先进水平 (SOTA) 竞赛从未停歇。每隔几周,就会有一个新模型爬上排行榜,在 MMLU (大规模多任务语言理解) 或 GSM8K (数学推理) 等基准测试中吹嘘自己取得了更高的分数。但随着这些分数逐渐逼近 100%,一个充满怀疑的问题笼罩着 AI 社区: 这些模型是真的变得更聪明了,还是仅仅记住了考试答案?
这种现象被称为数据污染 (data contamination) ——即测试集中的问题和答案无意中进入了模型的训练数据。如果模型以前见过考试题,那么它的高分反映的是死记硬背,而不是真正的推理能力。
直到最近,检测这种作弊行为还相对简单。研究人员会扫描训练数据,寻找与测试数据重叠的文本。如果“法国的首都是巴黎”这句话同时出现在两者中,模型就会被标记。
但是,如果污染更加隐蔽呢?如果模型记住了知识,却没有记住确切的英语文本呢?
在论文 《Data Contamination Can Cross Language Barriers》 (数据污染可以跨越语言障碍) 中,加州大学圣地亚哥分校的研究人员揭示了一种复杂的泄露形式,它使现有的检测方法变得毫无用处。他们证明,如果你在一个基准测试的翻译版本 (例如西班牙语版) 上训练模型,它就能在英语版本的测试中取得高分。更糟糕的是,标准的“抄袭检测器”根本抓不到它。
在这篇深度文章中,我们将探讨这种跨语言污染是如何工作的,为什么它能突破现有的防御措施,以及作者提出的巧妙的“基于泛化”的方法来揭露它的真面目。
作弊的进化: 普通污染 vs. 跨语言污染
要理解这个问题的严重性,我们首先需要看看传统上是如何定义和检测污染的。
普通污染 (Vanilla Contamination)
“普通”污染是最简单的形式。当像 MMLU 这样的英语基准测试被从网络上抓取,并包含在用于预训练模型的大量英语文本中时,就会发生这种情况。
检测这种污染依赖于文本重叠 。 这类似于老师抓学生抄袭论文: 他们寻找匹配的字符串。如果训练数据包含与测试集完美匹配的 n-gram (词组序列) ,模型就会被标记为受污染。
新的威胁: 跨语言污染
作者认为,污染不仅仅是匹配单词,更是匹配知识 。 LLM 越来越具备多语言能力。它们明白 “The sky is blue” (英语) 和 “El cielo es azul” (西班牙语) 代表的是同一个潜在概念。
研究人员假设,如果一个模型被训练去记住中文、法语或西班牙语的基准测试,它可能会将答案内化,从而足以通过英语测试。因为表面上的文本是不同的 (不同的语言,不同的单词) ,标准的 n-gram 检测工具看到的重叠为零。模型看起来是“干净的”,但它实际上在作弊。

如图 1 所示,普通污染 (上图) 很容易被发现,因为文本是匹配的。然而,跨语言污染 (下图) 创造了一个“后门”。模型记住了西班牙语的提示词和答案,链接了概念,当用英语提问时,它实际上“知道”答案。检测框显示“未检测到 (Undetected) ”,但机器人实际上已被污染。
证实威胁: 注入毒药
在检测这种新型污染之前,研究人员必须证明它是可能的。他们利用两个开源的多语言模型: LLaMA3-8B 和 Qwen1.5-7B , 建立了一个对照实验。
注入流程
团队选取了三个流行的基准测试——MMLU (通用知识) 、ARC-Challenge (推理) 和 MathQA (数学) ——并将它们的测试集翻译成七种语言: 中文、法语、德语、意大利语、日语、韩语和西班牙语。
然后,他们使用这些翻译后的数据集对模型进行了“持续预训练 (continual pre-training) ”。本质上,他们强迫模型用外语过拟合 (死记硬背) 这些测试题。

图 3 展示了这个流程。关于苏格拉底的原始英语问题被翻译成西班牙语。然后,模型被训练去预测该西班牙语序列中的下一个 token,从而有效地将问题-答案对烙印在其参数中。
这起作用了吗?
结果令人震惊。尽管模型在这个特定的训练阶段从未见过英语测试集,但它们在英语基准测试中的表现却直线上升。

图 2 显示了这种影响。青色柱状图代表干净的模型,而粉色柱状图代表通过外语受污染的模型。
- 看一下 MathQA (第三组) : 干净的 LLaMA-8b 得分约为 42%。受污染的版本呢? 95.14% 。
- 尽管模型从未见过英语问题,但这种巨大的飞跃还是发生了。
- 下面的 表 1 提供了不同语言如何导致这种膨胀的详细数据。

正如我们在表 1 中看到的,像法语和西班牙语这样的欧洲语言 (它们与英语有更多的语言根源和 token 重叠) 通常比韩语这样的亚洲语言更有效地转移污染,尽管这种效应在所有语言中都存在。
为什么现有的检测器会失效
理想情况下,我们应该有工具来标记这种情况。作者针对他们的跨语言污染模型测试了三种最先进的检测方法:
- 共享似然度 (Shared Likelihood) : 检查模型是否赋予正确的数据顺序比打乱的顺序更高的概率。
- 引导式提示 (Guided Prompting) : 要求模型补全测试数据中被遮蔽的部分。
- N-Gram 准确率 (N-Gram Accuracy) : 检查直接的字符串匹配 (标准方法) 。
结果令人沮丧。

表 2 突显了这种失败。
- N-Gram 准确率 (底部部分) 最能说明问题。对于普通污染,准确率很高 (约 70%) ,正确地标记了模型。但对于跨语言污染 (中文、法语等) ,准确率下降到接近零——通常甚至低于干净模型。
- 共享似然度和引导式提示同样未能一致地识别出我们已知受污染的模型。
这些方法之所以失败,是因为它们是基于记忆的。它们假设污染看起来就像复印件一样。但跨语言污染更像是学习概念性的答案指南;你知道的是思想,而不仅仅是一串单词。
解决方案: 基于泛化的方法
既然检查文本重叠行不通,作者提出了一种范式转变。与其问“你记住了这段文字吗?”,我们应该问: “你真的理解这个问题吗?”
他们引入了一种新的检测方法,称为选项混淆 (Choice Confusion) 。
概念: “甚至算不上错 (Not Even Wrong) ”
在一个标准的多项选择题中,有一个正确答案和三个“干扰项” (错误答案) 。
- 一个理解题目的模型会选择正确答案,因为它符合问题。
- 一个死记硬背的模型会选择正确答案,因为它从训练中认出了这个 token 序列。
研究人员意识到,他们可以通过修改测试来打破这种记忆捷径。他们创建了一个泛化基准 (Generalized Benchmark) , 方法是保留原始问题,但替换掉干扰项。
最巧妙的部分在于: 他们没有用随机单词替换干扰项。他们用其他问题的正确答案替换了它们。

图 4 直观地解释了这一点:
- 原始基准 (左) : 问题 1 是关于苏格拉底的。正确答案是 “Knowledge” (知识) 。错误答案是 wealth (财富) 、community (社区) 、courage (勇气) 。
- 泛化基准 (右) : 问题仍然是关于苏格拉底的。正确答案 “Knowledge” 被保留。但其他选项现在变成了像 “China” (中国) 或 “N2H4” (肼) 这样的东西——这些答案在其他语境下是事实正确的,但在这里毫无意义。
为什么这能抓住作弊者
这种修改为干净模型和受污染模型创造了两种不同的体验:
- 干净模型 (泛化) : 这个模型看着关于苏格拉底的问题。它看到了 “China” (不相关) 和 “N2H4” (不相关的化学式) 。它看到了 “Knowledge” (相关概念) 。这个任务实际上变得更简单了,因为干扰项明显是错的。 干净模型的表现应该会上升。
- 受污染模型 (记忆) : 这个模型不是在阅读含义;它在寻找熟悉的模式。在受污染的训练过程中,它记住了 “Knowledge” 是一个正确答案。但它也记住了 “China” 和 “N2H4” 是其他问题的正确答案。现在,面对一个包含四个它记忆中都是正确答案的选项列表,它感到困惑。这在模型的概率分布中产生了冲突。 受污染模型的表现应该会下降或持平。
检测指标
研究人员测量“差异 (Difference) ”:
\[ \text{Difference} = \text{Score on Generalized Benchmark} - \text{Score on Original Benchmark} \]- 高正差异: 模型觉得泛化测试更容易。它可能理解内容。( 干净 )
- 低或负差异: 模型在更简单的测试中挣扎。它可能依赖于记忆特定的原始选项。( 受污染 )
实验结果: 揭开泄露的真相
选项混淆在实践中有效吗?作者在他们故意污染的模型上运行了泛化基准测试。

表 3 验证了这一理论。
- 看一下 LLaMA3-8B / MMLU 这一行。
- 干净模型在泛化测试中提高了 +26.25% 。 它发现新的干扰项很容易忽略。
- 普通污染模型下降了 -17.00% 。 它被选项的改变搞糊涂了。
- 法语污染模型下降了 -42.71% 。
- 几乎在所有语言和数据集中,受污染的模型都未能泛化,导致负的或极低的差异分数。
检查现实世界的模型
研究人员并未止步于他们实验室创建的模型。他们将这种检测方法应用于流行的开源 LLM,看看能否在“野外”发现意外的污染。

表 4 揭示了一些可疑的行为。
- Phi-2 和 Abel-7B 在某些基准测试中表现出非常低的提升 (或低于同类模型) ,表明可能存在无意污染。
- Phi-3-mini 在 ARC-C 上显示出显著的差异跳跃 (+34.38) ,表明它可能是干净的且推理能力很强。
- 然而, Phi-3-mini 在 MathQA 上的差异仅为 +6.24,与干净模型通常的提升幅度相比相当低,暗示它在训练期间可能见过 MathQA 数据。
超越作弊: 对未来的启示
虽然这篇论文的主要焦点是检测,但作者讨论了跨语言污染的两个引人入胜的含义。
1. 解读 LLM 如何“思考”
用西班牙语训练能提高英语成绩这一事实,支持了 LLM 在“抽象概念”层面上运作的理论。语言只是一个接口。
- 输入 (法语/西班牙语/中文) \(\rightarrow\) 抽象知识表示 \(\rightarrow\) 输出 (英语) 。
因为不同的语言映射到相同的底层知识,污染可以在它们之间自由流动。
2. 提升多语言能力
如果我们换个角度看,“污染”只是“学习”的另一个代名词。研究人员发现,使用翻译数据进行训练是提高模型多语言能力的高效方法。

图 5 是一个展示性能迁移的热力图。Y 轴是训练语言;X 轴是评估语言。
- 深蓝色表示高性能。
- 注意,用法语 (fr) (第 4 行) 训练会导致几乎所有其他语言的表现都非常强劲,通常超过了用英语训练的模型。
- 这表明,如果你的预算有限,只能训练一个多语言模型,英语实际上可能不是最佳的基础语言。用法语这种连接英语和其他罗曼语族语言的语言进行训练,可能会产生一个“更聪明”的多语言模型。
结论
论文《Data Contamination Can Cross Language Barriers》为 AI 评估生态系统敲响了警钟。随着模型变得越来越强大和多语言化,我们对“作弊”的定义必须进化。简单的文本匹配已不足以确保测试的公平性。
关键要点是:
- 污染是语义层面的,而不仅仅是句法层面的: 模型可以跨越语言障碍记住知识,而无需保留确切的文本重叠。
- 泛化才是真正的测试: 要证明模型没有作弊,我们不应该只检查它的训练数据。我们应该检查它的行为。如果当错误选项被替换掉时模型无法回答问题,那它就不知道答案——它只是知道模式。
- 选项混淆是有效的: 通过在测试中填充“甚至算不上错”的干扰项 (来自其他语境的正确答案) ,我们可以将真正的推理与死记硬背区分开来。
随着我们迈向通用人工智能 (AGI) ,基准测试的完整性至关重要。像选项混淆这样的方法确保了当一个模型爬上排行榜时,是因为它很聪明,而不是因为它偷偷看了西班牙语的答案指南。
](https://deep-paper.org/en/paper/2406.13236/images/cover.png)