在大语言模型 (LLM) 快速发展的格局中,一个反复出现的挑战始终存在: 我们如何在不耗尽预算的情况下让模型“思考”得更好?
我们知道 LLM 能够完成令人印象深刻的壮举,但它们经常在涉及数学、逻辑或符号操作的复杂推理任务上受挫。为了应对这一问题,研究人员开发了 思维链 (Chain-of-Thought, CoT) 提示——要求模型“一步一步地思考”。为了使其更加稳健,我们通常使用 自洽性 (Self-Consistency) , 即多次询问模型同一个问题 (多路径推理) ,并投票选出最常见的答案。
虽然有效,但自洽性的计算成本很高。它通常需要针对单个问题运行模型 20 次、40 次甚至更多次。
如果有一种方法只需一半的努力就能获得同样的高准确率呢? Nash Chain-of-Thought (Nash CoT) 应运而生。这种由西湖大学和剑桥大学的研究人员提出的新方法,结合了 基于角色的提示 (persona-based prompting) 和 博弈论 (Game Theory) 的力量。
在这篇文章中,我们将剖析 Nash CoT 如何在 LLM 的不同模式之间建立一个“游戏”,从而高效地找到最佳答案。
问题所在: 准确性的代价
要理解为什么 Nash CoT 是必要的,我们需要先看看当前最先进方法的局限性。
多路径推理
复杂推理的黄金标准一直是 自洽性 (Self-Consistency) 。 它基于一个简单的前提: LLM 是概率性的。如果你只问一次问题,你可能会得到幻觉。如果你问 20 次,“正确”的推理路径通常出现得最频繁。
然而,研究人员指出了一个关键缺陷: 对于你需要多少条路径,并没有理论上的限制。 为了获得更好的结果,你只能不断增加路径,这会线性增加你的推理成本 (时间和金钱) 。
角色扮演的困境
另一种提高性能的方法是 角色扮演 。 用“你是一名数学家”来提示 LLM,通常比通用提示能产生更好的数学答案。
但这伴随着一种权衡:
- 沉浸感: 模型在特定任务 (如数学) 上表现更好。
- 狭隘化: 模型失去了多样性。如果角色过于具体,模型可能会过拟合,或者在需要广泛常识的问题上失败。
Nash CoT背后的研究人员提出了一个问题: 我们要如何在减少所需路径数量的同时,结合角色扮演的精确性和通用模型的多样性?
解决方案: Nash CoT
Nash CoT 的核心思想是将推理过程视为两个玩家之间的 博弈 :
- 玩家 1: 沉浸在特定角色中的 LLM (例如,数学家) 。
- 玩家 2: 处于正常、通用状态的 LLM。
目标是找到一个 纳什均衡 (Nash Equilibrium, NE) ——即特定角色模型的偏好与通用模型的偏好一致的状态。当这两个“玩家”达成一致时,答案很可能既准确 (归功于角色) 又稳健 (归功于通用模型) 。
架构分解
Nash CoT 过程分为三个不同的步骤。让我们直观地分解它们。

步骤 1: 角色识别
如上图所示,系统首先需要决定由 谁 来回答问题。研究人员利用一个“偏好模型” (可以直接是 LLM 本身) 从列表中选择最佳模板。
例如,如果问题是关于代数的,模型会选择“数学家”模板。如果是关于文学的,它会选择“文学学者”模板。这会将 LLM 带入一个“与模板相关的角色”。
步骤 2: 博弈 (小批量推理)
这是奇迹发生的地方。系统不再盲目地生成 20 个答案,而是运行一个比较循环。

如上图步骤 2 所示,系统使用两种方法生成预测:
- 正常生成: LLM 在没有特定角色模板的情况下回答问题 (通用状态) 。
- 角色沉浸生成: LLM 使用选定的角色设定来回答。
算法寻找满足 偏好均衡 的答案。简单来说,它检查特定的、基于角色的答案 (\(y^*\)) 是否存在于通用答案集 (\(y_1, y_2\)) 中。
如果基于角色的答案与通用答案之一一致,这表明在特定专业知识和通用稳健性之间取得了平衡——即一个“唯一的纳什均衡”。
步骤 3: 答案过滤
最后,如步骤 3 图解所示,系统收集所有达到均衡的候选答案。然后,它执行类似于自洽性的投票过程,但这是在一组质量高得多的候选答案上进行的。如果未找到均衡 (这种情况很少见) ,它将回退到标准的频率投票。
理论基础: 为什么要用“纳什”均衡?
你可能会想知道为什么要叫“Nash” CoT。研究人员提供了一个数学证明来证明这种“博弈”的合理性。
他们定义了一个 偏好模型 , 其中一个输出优于另一个输出。

这个方程定义了基于奖励模型 \(r\),答案 \(y_1\) 优于 \(y_2\) 的概率。
然而,仅仅最大化奖励是不够的;我们需要稳定性。作者引入了 Kullback-Leibler (KL) 散度约束 。

这个方程看起来可能很吓人,但它的目的很优雅。KL 项起到了锚点的作用。如果“角色沉浸”玩家过度偏离“安全策略” (通用模型 \(\mu\)) ,它就会受到惩罚。
- 如果角色玩家过于沉浸在角色中并开始产生幻觉,KL 项会惩罚它。
- 如果角色玩家过于通用,它就没有增加价值。
纳什均衡 发生在角色玩家的策略与通用玩家完美平衡时。作者证明,在这些约束条件下,存在一个 唯一 的均衡。

上图对比了这两种方法。左侧,自洽性盲目地生成一条又一条路径。右侧,Nash CoT 使用“小批量”循环在最终确定答案之前检查均衡 (“in”或“not in”) 。这种“检查”为答案创建了一个更高质量的过滤器。
实验结果
那么,这种博弈论方法真的有效吗?研究人员在各种基准测试中测试了 Nash CoT,包括阿拉伯语推理 (数学) 、符号推理和常识问答。
性能与自洽性的对比
最主要的结果是, Nash CoT 用一半的路径数量实现了与自洽性相当或更好的性能。

在上图 (图 2) 中,我们可以看到不同领域的平均性能。Nash CoT (使用 10 条路径) 与自洽性 (使用 20 条路径) 不相上下。
让我们看看符号推理的具体数字:

在像“物体追踪 (Object Tracking) ”这样的任务中,Nash CoT (10 条路径) 得分为 44.8 , 显着优于零样本 CoT (30.1) ,并击败了使用双倍路径的自洽性 (38.8) 。
对于常识推理:

在这里,结果比较复杂。Nash CoT 的表现与自洽性相似。作者指出,常识任务非常多样化,有时预定义的角色模板 (如“数学家”) 无法涵盖一般常识问题所需的细微差别。
效率提升
Nash CoT 最实际的优势在于速度。因为它需要更少的推理路径就能达到高置信度的答案,所以它极大地减少了推理时间。

这张柱状图非常引人注目。在 AQuA 和 AddSub 等数据集上,Nash CoT (橙色条) 将推理时间比自洽性 (蓝色条) 缩短了大约一半。对于大规模运行 LLM 的研究人员和公司来说, 计算成本降低 50% 是一个巨大的改进。
消融研究: 循环重要吗?
研究人员还调查了“博弈”的结构是否重要。Nash CoT 使用“外部循环”和“小批量循环”。

上图显示,随着循环次数 (\(N_{mini}\)) 的增加,性能通常会提高,最终超过虚线 (自洽性) 。这证实了寻找均衡的迭代过程有效地过滤掉了错误的答案。
角色模板的影响
具体的角色真的很重要吗?作者进行了一项实验,从数学任务中移除了“数学家”模板。

如表 5 所示,当移除相关角色时,性能显著下降 (例如,在 GSM8K 上从 55.7 降至 50.6) 。这证实了“角色沉浸玩家”正在为博弈贡献关键的领域专业知识。
结论
Nash CoT 代表了“提示工程 2.0”迈出的迷人一步。它不仅仅是要求模型更加努力地思考,而是将思考过程构建成一个比较性的博弈。
通过迫使大语言模型将其 特定角色的知识 与其 通用直觉 相结合 (寻找纳什均衡) ,我们获得了两全其美的结果: 高准确性和稳健的推理。
关键要点:
- 效率: Nash CoT 以大约 50% 的计算成本达到了标准方法的水平。
- 理论支持: 它不仅仅是一种启发式方法;它基于证明偏好模型中唯一均衡的存在性。
- 应用: 它特别擅长逻辑和数学,在这些领域采用特定角色 (如数学家) 会产生切实的收益。
随着 LLM 的规模和成本不断增长,像 Nash CoT 这样优化我们提问 方式 而不仅仅是提问 内容 的方法,对于可扩展的 AI 将至关重要。
](https://deep-paper.org/en/paper/2407.07099/images/cover.png)