引言
像 GPT-4 和 Claude 这样的大型语言模型 (LLM) 在生成类人文本、创作诗歌甚至解释复杂的历史事件方面表现得令人难以置信。然而,在某个特定领域,这些模型经常遇到困难: 算法推理 。
算法推理不仅仅是回答问题;它关乎遵守一套严格的规则,将复杂问题分解为一系列步骤,并在整个过程中维护变量的状态。一个典型的例子是涉及多人说谎或说真话的逻辑谜题 (“谎言之网”) ,或者根据一系列转向和步数在网格中导航。
当 LLM 试图使用标准的自然语言完成这些任务时,它经常会“产生幻觉”出逻辑。它可能在前两步是对的,但到了第三步就搞不清谁在撒谎、谁在说真话了。
为了解决这个问题,研究人员开发了各种提示策略。其中最著名的两个是 思维链 (Chain-of-Thought, CoT)——模型用自然语言解释其推理过程,以及 思维程序 (Program-of-Thought, PoT)——模型编写 Python 代码来解决问题。

如上图 Figure 1 所示,这两种方法都有局限性。CoT (左侧) 很容易受到语义歧义的影响——模型可能会做出听起来合理但在数学上不正确的逻辑跳跃。PoT (右侧) 更加严谨,因为它使用代码,但它要求模型一次性编写出完美的、可执行的语法。此外,生成的代码通常仅针对该特定问题 (特定于实例) ,这意味着模型必须为每个新输入重新造轮子。
但是,如果有一个中间地带呢?如果我们能将自然语言的灵活性与编程的严密逻辑结合起来呢?
这就是这篇题为 “Language Models as Compilers: Simulating Pseudocode Execution Improves Algorithmic Reasoning in Language Models” (语言模型即编译器: 模拟伪代码执行以提高语言模型的算法推理能力) 的迷人论文的前提。研究人员引入了一个名为 THINK-AND-EXECUTE (思考与执行) 的框架,在这个框架中,LLM 首先发现任务的通用逻辑 (THINK) 并将其写成伪代码,然后模拟该代码的执行 (EXECUTE) 以得出答案。
在这篇文章中,我们将剖析这篇论文,以理解将 LLM 视为伪代码编译器是如何显著提升其推理能力的。
背景: 逻辑推理的困境
为了理解 THINK-AND-EXECUTE 的创新之处,我们首先需要了解当前的推理技术格局。
思维链 (Chain-of-Thought, CoT)
提高推理能力的标准方法是要求模型“一步一步地思考”。这就是思维链。它鼓励模型在给出最终答案之前生成中间推理步骤。虽然有效,但它依赖于模型在自然语言中保持逻辑一致性的能力。自然语言是混乱的;它允许歧义的存在,并且不强制执行严格的状态跟踪 (比如记住 x 当前是 5) 。
思维程序 (Program-of-Thought, PoT)
认识到编程语言是严格且无歧义的,研究人员开发了思维程序。在这里,LLM 将文字问题转化为 Python 脚本。然后由外部计算机 (Python 解释器) 运行代码以获得答案。
这对数学问题很有效,但它有两个缺点:
- 复杂性: 一次性为复杂的逻辑谜题编写无错误的脚本很难。
- 依赖性: 它通常需要外部工具来运行代码。
- 一次性逻辑: 模型通常只为那个特定问题编写脚本。如果你给它一个类似的问题,它又要从头开始。
THINK-AND-EXECUTE 背后的研究人员假设 伪代码 (pseudocode)——一种以类似代码的结构编写但没有真实编程语言那样严格语法要求的逻辑——可能是关键所在。伪代码允许模型构建其思维 (循环、条件、变量赋值) ,同时保留自然语言的表现力。
核心方法: THINK-AND-EXECUTE
本文提出的框架将推理过程分解为两个不同的阶段: THINK (思考) 和 EXECUTE (执行) 。 这种分离至关重要。它将逻辑的规划与逻辑的应用分离开来。
让我们使用下面的图表来分解这个架构。

第一阶段: THINK (指导者)
在 Figure 2 的上半部分,我们看到了 THINK 阶段。这个过程由一个充当“指导者 (Instructor)”的模型处理。
这里的目标还不是解决具体的问题。目标是找出解决这一类任务的算法 。
- 元提示 (Meta-Prompting): 系统为模型提供一个“元提示”。该提示包含其他任务 (任务 1,任务 2) 的示例,展示如何分析问题并为其编写伪代码。
- 任务分析: 指导者 LLM 查看目标任务 (例如,“谎言之网”) 的几个示例,并生成自然语言的 分析 。 它弄清楚解决问题需要什么 (例如,“我们需要跟踪谁说了什么,并检查一致性”) 。
- 伪代码生成: 基于分析,指导者生成一个 伪代码提示 (Pseudocode Prompt) 。
这为什么很高明?
生成的伪代码是任务级的,而不是实例级的。它定义了一个函数 (例如 def web_of_lies(input):) ,其中包含解决任何“谎言之网”问题的通用逻辑。它包括处理陈述的循环和验证真实性的条件检查。
第二阶段: EXECUTE (推理者)
在 Figure 2 的下半部分,我们进入 EXECUTE 阶段。这里,由一个“推理者 (Reasoner)” LLM 接手。
- 输入构建: 我们将想要回答的具体问题 (实例 \(I_k\)) 与第一阶段生成的 伪代码提示 结合起来。
- 模拟: 这是最独特的部分。我们不在计算机上运行此代码。我们要求推理者 LLM 模拟执行该代码。
提示实际上是说: “这是代码和输入。像编译器一样行事。逐行执行代码并告诉我输出结果。”
模型生成伪代码内部 print() 语句的输出。这些打印语句充当了“思维链”。它们输出变量的状态、循环迭代的结果和中间决策。
通过强迫模型“运行”代码,作者强迫它:
- 遵守 THINK 阶段定义的逻辑。
- 显式地跟踪变量的状态 (例如
truth_dict) 。 - 严格遵循控制流 (if/else) 。
为什么要用伪代码?
你可能会想,为什么不直接让模型用英语写一个计划?或者为什么不直接用 Python?
作者认为伪代码是 LLM 推理的“恰到好处 (Goldilocks)”的媒介:
- 结构化: 它使用循环 (
for,while) 和条件 (if,else),这与算法任务完美对应。 - 抽象性: 它允许使用不需要实现的辅助函数 (例如
get_person_from_text()) ,依靠 LLM 的自然语言理解能力在模拟过程中“执行”该抽象函数。 - 可读性: 它比冗长的自然语言计划更简洁。
模拟方面将 LLM 变成了一个 状态机 , 一步步更新其对问题的内部表示,从而显著减少逻辑错误。
实验与结果
为了验证这种方法,研究人员在 Big-Bench Hard (BBH) 数据集的七个不同任务上测试了 THINK-AND-EXECUTE。这些任务专门设计为标准语言模型难以处理的,包括:
- 导航 (Navigate): 遵循方向指令。
- 谎言之网 (Web of Lies): 关于真实性的逻辑谜题。
- 几何形状 (Geometric Shapes): 从 SVG 路径确定形状。
- 跟踪洗牌对象 (Tracking Shuffled Objects): 确定交换物品后的最终位置。
让我们看看主要结果。

Table 1 (上图) 揭示了几个关键见解:
- 优于基线: 使用 GPT-3.5-Turbo,THINK-AND-EXECUTE (最后一行) 实现了 60.4% 的平均准确率。这显著优于 直接提示 (36.9%)、零样本 CoT (48.0%) 和 零样本 PoT (32.4%) 。
- 一致性: 在诸如 导航 (Nav) 之类的任务中,该方法达到了 96.8% 的准确率,而标准 CoT 仅达到 73.2%。这表明对于需要严格分步跟踪的任务,伪代码模拟具有巨大的优势。
- 跨模型成功: 该方法不仅在 GPT-3.5 上有效,还能提高像 CodeLlama-13B 这样的开源模型的性能。
一个具体的例子: 谎言之网
为了理解为什么基线方法失败而 THINK-AND-EXECUTE 成功,让我们看看“谎言之网”任务的定性比较。

在上方的 Table 13 中,我们看到了一系列复杂的陈述。
- 直接提示 猜测“是 (Yes)” (错误) 。
- 零样本 CoT 试图分析这些陈述,但在逻辑链中感到困惑 (“从陈述 2,我们可以推断……”) 。它得出结论“是 (Yes)” (错误) 。
- THINK-AND-EXECUTE (我们的方法) 系统地执行逻辑。它创建了一个布尔映射。它评估: “Vina 说真话: True” -> “Helene 说 Vina 撒谎” -> “Helene 是 False”。它完美地遵循这个链条,得出结论“否 (No)” (正确) 。
分析: 起作用的原理是什么?
这篇论文不仅仅展示了高分;它还调查了该方法为什么有效。
1. 伪代码组件的重要性
是有代码结构在起作用,还是仅仅因为它是一个计划?研究人员进行了消融实验 (移除方法的部分内容以观察结果) 。

Figure 3 (上图中) 显示:
- w/o intermediate print() (无中间 print) : 如果移除伪代码内部的
print()语句,性能会显著下降 (蓝色条与绿色条相比) 。这证实了执行的“痕迹”对于模型跟踪状态是必要的。 - w/o comments & semantics (无注释和语义) : 如果用通用名称 (如
var_a) 替换有意义的变量名 (如person_name) 并移除注释,性能也会下降。语义含义有助于 LLM “编译”代码的抽象部分。
2. 小模型能做到吗?
最有希望的发现之一与模型大小和预训练有关。

Figure 4 比较了 Llama-2 (紫色) 和 CodeLlama (蓝色) 。两者都是 13B 参数的模型。不同之处在于 CodeLlama 接受了代码预训练。 结果很明确: CodeLlama 始终优于标准 Llama 模型。 这表明在代码语料库上的预训练为模型提供了模拟执行和遵循逻辑指令所需的特定“神经回路”。
3. 与高级基线的比较
最后,作者将他们的方法与其他最先进的推理技术进行了比较,如“思维链代码 (Chain-of-Code)”和“计划与求解 (Plan-and-Solve)”。

如 Table 3 所示,THINK-AND-EXECUTE 以巨大的优势 (60.4% 对 28.1%) 击败了 Chain-of-Code (它对实例使用代码,但没有任务级逻辑) 。它也险胜 Plan-and-Solve 。 这强化了任务级规划与伪代码模拟相结合是一个致胜组合的观点。
结论与启示
“THINK-AND-EXECUTE”框架代表了使大型语言模型成为可靠推理者的重要一步。通过将模型视为模拟伪代码的编译器,我们迫使它采用一种自然语言本身无法提供的结构化、算法化的思维模式。
以下是给学生和从业者的主要启示:
- 分解是关键: 将“思考 (THINKing)” (规划逻辑) 与“执行 (EXECUTing)” (应用逻辑) 分离开来,减少了模型在推理过程中的认知负荷。
- 伪代码是一座桥梁: 伪代码是类人的灵活性与机器般的严谨性之间的完美桥梁。它允许 LLM 通过遵守预定义的逻辑结构来减少“幻觉”。
- 模拟执行: 你并不总是需要外部 Python 解释器。如果模型足够强大 (并且经过代码预训练) ,它可以模拟计算机的执行,提供准确跟踪变量和状态的思维链。
当我们展望 AI 智能体的未来时,像这样的技术表明,通往更好推理能力的道路可能不仅仅是更大的模型,而是构建模型内心独白的更好方式——教它不仅像作家一样思考,还要像程序员一样思考。
](https://deep-paper.org/en/paper/2404.02575/images/cover.png)