引言
试想一下,如果你向一位博学的教授请教关于唐朝历史的问题。如果你用英语问,他们可能会给你一个模糊且稍微有些不准确的总结。但如果你用中文问完全相同的问题,他们却能提供丰富、详细且事实完美的叙述。
这就是大语言模型 (LLM) 目前的现状。尽管像 GPT-4 或 Llama-3 这样的模型以通用知识库著称,但它们仍受制于一种被称为多语言不一致性 (multilingual inconsistency) 的现象。它们的“知识”并非存储在一个独立于语言的数据库中,而是与训练数据的语言纠缠在一起。由于互联网上英文资料中的信息与中文、西班牙文或日文资料中的信息截然不同,模型回答问题的能力会根据你使用的语言而剧烈波动。
这种不一致性不仅仅是用户体验上的一个小瑕疵;它代表了 AI 公平性和可靠性方面的根本性错位。如果一个模型知道中文答案但在英文中回答失败,那它就不是真正的智能——它只是在检索语言模式。
在一篇引人入胜的新研究论文《\(1 + 1 > 2\): Can Large Language Models Serve as Cross-Lingual Knowledge Aggregators?》 (\(1 + 1 > 2\): 大语言模型能作为跨语言知识聚合器吗?) 中,研究人员提出了一个巧妙的解决方案。他们并没有从头开始重新训练模型,而是引入了一个流程,允许 LLM 从一种语言中“借用”知识来回答另一种语言的问题。通过将不同的语言视为独特的知识来源,他们证明了 LLM 多语言部分的总和确实大于整体。
问题所在: 隐藏的知识鸿沟
要理解解决方案,我们首先需要将问题具象化。LLM 是在海量文本语料库上训练出来的,但这些文本的分布并不均匀。英语语料库主要由西方历史、流行文化和科学主导。而中文语料库则富含东方历史、文学和本土背景信息。
当用户提出查询时,LLM 依赖于其在训练期间学到的统计关联。如果这些关联在查询所用的语言中很弱 (即“低资源”查询) ,模型就会产生幻觉——听起来看似合理但实际上是错误的答案。
研究人员在下图中清晰地展示了这种错位:

在图 1 (顶部) 中,我们看到一个鲜明的例子。用户用英语问: “Who was the 7th Secretary of State?” (谁是第七任国务卿?) ,模型正确地识别出是 James Monroe。然而,当同样的问题被翻译成中文时,模型却自信地 (并且错误地) 回答“约翰·昆西·亚当斯 (John Quincy Adams) ”。
图 1 底部的柱状图进一步突显了这种差异。虽然许多欧洲语言的表现普遍较高,但其他语言的表现有明显下降。这种不一致性表明,模型在其神经网络的某处拥有正确的信息,但特定的语言触发器 (中文查询) 未能访问到它。
量化领域鸿沟
研究人员不仅依赖轶事证据;他们还量化了这种差距。他们分析了模型在“中文知识” (特定于中国文化/历史的主题) 与“英文知识”上的表现。

如图 3 所示,结果说明了一切。看看左侧的“中文知识”聚类。当用中文查询中文知识时 (橙色柱) ,准确率大约为 30%。但当用英文查询同样的中文知识时 (蓝色柱) ,准确率下降到约 20%。对于英文知识,情况则相反。这证实了语言充当了特定信息领域的守门人。
核心洞察: \(1 + 1 > 2\)
这篇论文的核心论点是,一个 LLM 就像是多个被困在一个身体里的专家。一位专家讲英语,了解披头士乐队和美国内战。另一位专家讲中文,了解李白和春秋时期。

图 2 展示了这种重叠。无论使用何种语言,模型都可以访问一部分“常识 (Common Knowledge) ” (灰色区域) 。然而,还有大量的“特定语言知识 (Language-Specific Knowledge) ” (蓝色和橙色区域) 目前处于孤岛状态。
研究人员提出了一种方法来打破这些孤岛。如果一个查询落入了语言 A 的“特定语言”区域,但用户是用语言 B 提问的,系统应该自动检测到这种不匹配,将查询翻译成语言 A,检索出更优质的答案,然后再翻译回来。
方法论: 三阶段流水线
提出的解决方案是一个推理时 (inference-time) 框架。它不需要昂贵的模型重训练。相反,它将 LLM 封装在一个由三个不同模块组成的智能流程中:
- 低资源知识检测器 (Low-Resource Knowledge Detector)
- 目标语言选择 (Target Language Selection)
- 答案替换与融合 (Answer Replacement & Integration)
让我们分解这个架构。

如图 4 所示,流程始于用户提出问题。系统不会盲目处理;它首先评估这个问题对于当前语言来说是否“困难”。
模块 1: 低资源知识检测器
将每一个查询都翻译成多种语言既缓慢又在计算上昂贵。大多数问题 (如“法国的首都是哪里?”或“1+1=?”) 属于常识。系统需要一个过滤器来识别仅那些需要跨语言帮助的查询。
研究人员为此专门训练了一个轻量级分类器。该检测器检查原始语言 \(L_o\) 中的查询 \(x\),并确定它是否属于“低资源”类别。

如果检测器输出 0,查询将进入标准推理流程 (图 4 中的红色“No”路径) 。如果输出 1,则触发跨语言流水线。这一步对于效率至关重要,确保只有在必要时才使用这种复杂的方法。
模块 2: 目标语言选择
一旦查询被标记为低资源,系统会问: “如果英语不是这个问题的最佳语言,那什么语言是?”
有趣的是,研究人员使用 LLM 本身来做这个决定。他们将查询输入 LLM,并附带一个特定的提示词 (\(P_{sel}\)) ,要求它识别最适合该主题的语言。例如,如果查询是关于巴西狂欢节的细节,LLM 可能会选择葡萄牙语。
然后,查询被翻译成这种目标语言:

这里,\(x'\) 是翻译后的查询,\(L_t\) 是 LLM 选择的目标语言。这个翻译步骤有效地解锁了我们在图 2 中看到的“特定语言知识”区域。
模块 3: 答案替换与融合
现在系统已经有了最佳语言版本的查询,它生成了一个答案 (\(a_t\)) 。但如果用户是用英语提问的,我们不能直接给用户一个葡萄牙语的答案。
最简单的方法是直接替换 (Direct Replacement) : 只需将答案翻译回原始语言。

然而,研究人员发现,有时原始语言可能包含一些正确的上下文,或者仅靠翻译会丢失细微差别。因此,他们引入了答案融合 (Answer Integration) 。
在这个高级步骤中,LLM 会同时获得原始语言生成的答案 (\(a_o\)) 和目标语言生成的答案 (\(a_t\)) 。它被提示将这两部分信息合成一个最终的、更优质的回复 (\(a_{final}\)) 。

这种融合允许模型对相互冲突的信息进行推理,本质上是在说: “我的英文内部权重认为 X,但我的中文内部权重认为 Y。考虑到上下文,Y 更可能是真的。”
实验与结果
为了验证这一方法,作者在六个流行的 LLM (包括 GPT-4、ChatGPT、ChatGLM3 和 Llama3) 以及五个双语数据集上进行了测试。
结果非常显著,特别是对于那些语言间知识差距最大的“难题”。
主要性能提升
下表详细列出了不同模型和数据集的性能。绿色数字表示相对于基线的提升。

请看 GPT-4 在 HalluEval (ch) 这一行。原始准确率 (Orig.) 为 47.99% 。 应用跨语言聚合方法后 (Improv.) ,准确率跃升至 64.36% 。 对于一个已经被认为是业界顶尖的模型来说,这是一个巨大的提升。
同样,对于 ChatGLM3 在 Chinese Domain (en) 数据集 (用英文询问中文话题) 上,准确率从 9.52% 翻倍至 20.78% 。 这从经验上证明了模型知道答案,但英文界面阻碍了其获取这些信息。
缩小差距
这篇论文最重要的发现之一是关于公平性。通常,LLM 在英文上的表现明显优于其他语言。所提出的方法缩小了这种差异。

图 6 展示了语言之间的“性能差距 (Performance Gap) ”。红色柱代表原始差距 (对于像 Llama3 这样的模型来说相当高) 。蓝色柱显示了使用该方法后的差距。总体而言,差距缩小了,这表明无论使用何种语言,模型正变得更加一致和可靠。
效率与准确性
对于复杂的推理流水线,一个常见的批评是速度太慢。研究人员通过对低资源检测器进行消融实验回应了这一点。

图 7 绘制了时间消耗 (y 轴) 与错误率 (x 轴) 的关系。
- 红叉 (w/o Detection) : 这代表对所有查询运行翻译流水线。它的错误率低 (左侧) ,但速度非常慢 (y 轴高处) 。
- 绿色形状 (w Detection) : 这些点代表使用不同阈值的检测器的方法。
数据显示,使用检测器 (绿点) 显著降低了推理时间 (从约 9 秒降至约 6.5 秒) ,而与完整流水线相比,错误率几乎没有增加。这证实了检测器成功过滤掉了不需要额外处理的简单问题。
结论
《\(1 + 1 > 2\)》中提出的研究为多语言大语言模型的未来提供了一个令人信服的视角。它强调了当前 AI 的一个关键局限性: 知识被语言分割。
然而,作者并没有建议我们需要更大的模型或更多的训练数据,而是证明我们可以通过更好地利用现有模型来解决问题。通过承认 LLM 是各种语言专家的集合,我们可以构建能够动态将问题路由给最适合回答该问题的“专家”的系统。
这种方法有三个主要收获:
- 潜在能力 : LLM 知道的比它们表现出来的更多。正确的答案往往存在于模型的权重中,只是隐藏在语言障碍之后。
- 高性价比的提升 : 我们可以通过封装流水线而不是昂贵的重训练来解锁这些知识。
- 公平性 : 通过聚合知识,我们确保所有语言的用户都能获得模型能够提供的最高质量信息。
随着 LLM 继续在全球范围内由不同人群使用,像跨语言知识聚合这样的技术对于从以英语为中心的 AI 迈向真正的全球智能至关重要。
](https://deep-paper.org/en/paper/2406.14721/images/cover.png)