引言
大型语言模型 (LLM) 彻底改变了我们与信息交互的方式,但它们存在一个顽固的缺陷: 幻觉。当 LLM 不知道答案时,它往往会编造一个。对此,行业标准的解决方案是检索增强生成 (RAG) 。 在 RAG 系统中,模型从外部数据库检索相关文档,并将其用作回答用户问题的上下文。
然而,RAG 引入了一个新问题。当检索系统引入“噪声”文档——不相关的文本、过时的信息或相互矛盾的事实时,会发生什么?标准的 LLM 往往难以在检索到的上下文中区分精华与糟粕。它们可能会分心,导致即使拥有正确的信息,给出的答案在事实上也是错误的。
在这篇文章中,我们将深入探讨一篇研究论文,它解决这个问题的思路不是训练更好的模型,而是改变模型在生成过程中的思维方式。我们将探讨动态对比解码 (Dynamic Contrastive Decoding,DVD) , 这是一种新颖的策略,它将 RAG 视为一场多文档竞赛。通过动态分析模型在不同文档间的置信度,DVD 能够放大最可靠来源的“声音”,同时抑制噪声,且无需对模型进行任何训练。
背景: 多文档挑战
要理解 DVD,我们需要先了解当前解码策略的局限性。
标准 RAG 方法
在典型的 RAG 设置中,算法会检索一组与查询 (\(q\)) 相关的文档 (\(D = \{d_1, d_2, ..., d_N\}\)) 。这些文档被拼接成一长串文本,作为提示词 (Prompt) 输入给 LLM。然后 LLM 逐个 token 地生成答案。
这里的问题在于分心 (Distraction) 。 如果 \(d_1\) 包含正确答案,但 \(d_2\) 到 \(d_5\) 包含不相关的乱语或细微的矛盾,LLM 会将它们全部视为有效上下文。先前的研究表明,LLM 很容易受到不相关上下文的影响,从而导致准确率下降。
对比解码
DVD 方法的基础在于对比解码 (Contrastive Decoding) 。 该技术旨在通过对比“强”分布与“弱”分布来改进生成效果。
例如,一种称为上下文感知解码 (Context-Aware Decoding, CAD) 的现有方法会运行模型两次:
- 有上下文: 模型看到查询和检索到的文档。
- 无上下文: 模型只看到查询 (依赖其内部参数化记忆) 。
通过从“有上下文”运行的 Logits (原始预测分数) 中减去“无上下文”运行的 Logits,系统迫使模型更多地依赖外部文档,减少对预训练先验知识的依赖,从而减少幻觉。
然而,CAD 将所有检索到的文档视为单个文本块。它无法在该文本块中区分好文档和坏文档。这正是 DVD 切入的地方。
DVD: 动态对比解码
DVD 超越了简单的上下文感知解码,将 RAG 视为一个多文档问答 (MDQA) 任务。DVD 不会将所有文档混在一起,而是实时单独分析它们,以决定哪些是值得信赖的。
该框架基于“即插即用”的原则运行——无需对 LLM 进行微调。它在推理阶段进行干预,具体来说是在模型计算下一个词的概率时。

如图 1 所示,该过程包括三个主要阶段:
- 批量输入构建 (Batch Input Construction) : 同时向模型提供多个版本的上下文。
- 选择标准 (Selection Criteria) : 通过数学方法识别哪些文档是有帮助的,哪些是混淆视听的。
- 动态 Logit 调整 (Dynamic Logit Adjustment) : 修改最终的输出概率以放大“好”信号。
1. 批量输入构建
在标准解码过程中,模型根据输入 \(x\) 和之前生成的 token \(y_{ DVD 不仅仅向模型提供一个输入。相反,它构建了一个包含 \(N + 2\) 个变体的输入批次 (Batch) \(B\),其中 \(N\) 是检索到的文档数量。 让我们分解批次 \(B\) 中的输入: 模型并行处理整个批次: 这产生了一组 Logit 分布 \(Z = \{z_1, z_2, ..., z_{N+2}\}\)。每个 \(z\) 代表模型基于不同上下文视图对下一个词的预测。 既然我们要基于每个单独的文档进行预测,我们如何知道哪个文档是“好”的呢?作者建议使用熵 (Entropy) 作为质量的代理指标。 在信息论中,高熵意味着高不确定性 (模型将概率分散在许多不同的词上) 。低熵意味着高置信度 (模型非常确定下一个词是“巴黎”) 。 然而,计算整个词表 (通常超过 30,000 个词) 的熵由于低概率词的“长尾”效应而充满噪声。作者对此进行了改进,仅计算Top-K token (最可能的下一个词) 的熵。 对于每个 Logit 分布 \(z_i\),计算得分 \(s_i\)。 利用这些得分,系统从单文档输入中识别出两个关键分布: 这是 DVD 的核心贡献。目标是生成一个最终的 token 分布,该分布能够: 最终调整后的 Logit \(\hat{z}\) 的公式为: 这里,\(\beta\) 控制我们惩罚内部知识的程度 (类似于标准对比解码) ,而 \(\gamma\) 控制我们将最佳特定文档相对于最差文档提升的程度。 最终的 token 从这个调整后的分布中采样: 从数学上讲,这也可以看作是概率的乘积: 在早期的实验中,研究人员发现对 \(\beta\) 和 \(\gamma\) 使用固定值并不是最优的。有时检索到的文档都很糟糕,所以我们应该相信内部知识。有时“最好”的文档仅比“最差”的好一点点,所以放大差异会增加噪声。 为了解决这个问题,DVD 基于置信度 (Confidence) 在每个 token 步骤动态计算权重 \(\beta\) 和 \(\gamma\)。 置信度 \(C_i\) 定义为预测排名第 1 的 token 与排名第 2 的 token 之间的概率差。差距大意味着模型是果断的。 权重随后由这些置信度差距推导出来: 对于内部知识 (\(\beta\)) :
只有当模型有文档时的置信度 (\(s_2\)) 显著高于无文档时的置信度 (\(s_1\)) 时,我们才惩罚内部知识。
对于文档选择 (\(\gamma\)) :
我们基于“最佳”文档让模型比“最差”文档自信多少,来放大文档信号。
这确保了解码策略能够时刻适应。如果文档令人困惑,模型会退缩。如果有一个文档清楚地阐明了答案,模型就会跟进。 研究人员在多个基准测试中以零样本 (zero-shot) 设置评估了 DVD,包括 ALCE-ASQA、Natural Questions (NQ)、TriviaQA (TQA) 和 PopQA。他们将其与标准解码 (“Regular”) 和上下文感知解码 (CAD) 进行了比较。 以字符串精确匹配 (String Exact Match, Str-em) 衡量的结果显示,DVD 始终优于其他方法。 在表 1 中,注意这个递进关系: 这种趋势在不同模型规模 (Mistral-7B、LLaMA2-13B、Vicuna-13B) 和数据集上都成立。动态提升最佳文档 (\(z_l\)) 并降低最差文档 (\(z_h\)) 权重的能力,比起简单地将所有文档一视同仁,提供了明显的优势。 作者利用 Top-K token 的熵来选择最佳/最差文档。\(K\) 的值重要吗? 图 2 表明,\(K=10\) 大致是最佳点 (Sweet spot) 。 DVD 复杂的基于熵的选择是否真的比随机选择文档或信任检索器的排名更好? 表 2 证实了这一假设。随机选择文档的效果比标准检索更差。有趣的是,基于检索 (Retrieval) 排名进行选择 (假设排名第 1 的文档就是 \(z_l\)) 效果不错,但 DVD 的熵方法 (Our DVD) 仍然胜出。这意味着检索器认为最好的文档,并不总是LLM 觉得对生成最有用的文档。 最后,如果我们检索更多文档,该方法会失效吗? 图 3 (图片右侧) 显示了随着 \(N\) (文档数量) 增加时的性能表现。随着更多文档 (以及更多噪声) 的加入,标准解码 (Regular-full) 往往会略微下降。然而,DVD (粉色线) 保持了高于基线的性能差距,证明即使上下文窗口变得拥挤,它也能有效过滤噪声。 DVD 论文提出了一个令人信服的观点: RAG 的性能不仅仅在于更好的检索,还在于更智能的解码。 通过将生成阶段视为不同上下文来源之间的动态竞争,DVD 允许 LLM “聆听”批次中最清晰的信号。主要收获如下: 虽然 DVD 在推理期间需要更高的计算资源 (因为它在一个批次中运行 \(N+2\) 次前向传播) ,但它提供了一种强大的、无需训练的方法,可以显著提高 RAG 系统的准确性和可靠性。随着 LLM 继续部署在知识密集型领域,像 DVD 这样的解码策略对于确保模型不仅阅读文档,而且真正理解该信任哪些文档将至关重要。

2. 选择标准: 用熵来判断质量


3. 动态 Logit 调整



为什么要“动态”?



实验与结果
主要性能

“Top-K” 的选择重要吗?

选择标准分析

对文档数量的鲁棒性

结论与启示
](https://deep-paper.org/en/paper/file-2922/images/cover.png)