你有没有注意到大多数聊天机器人都让人感觉很死板?你问天气,它们就报预报。你问餐馆,它们就给菜单。但是,如果你试图顺势从那家餐馆聊到该菜系的历史,然后再聊到做这道菜的名厨,机器人往往会卡壳。它要么丢失上下文,要么将新话题视为一个完全孤立的查询。
发生这种情况是因为大多数对话系统都被训练为紧扣主题 (on-topic) 。 它们的设计初衷是深入挖掘特定的意图,而不是像人类那样漫步于相关思想的网络中。
这种局限性的原因是一个经典的机器学习瓶颈: 数据稀缺 (Data Scarcity) 。 创建一个话题自然地从一个主题流向另一个主题的数据集,需要昂贵的人工写手来编写数千段对话。
在这篇文章中,我们将深入探讨首尔国立大学和 LG AI Research 的研究人员提出的解决方案。他们的框架名为 MP2D (Multi-Passage to Dialogue,多篇章到对话) , 它可以自动创建用于动态、多话题对话的训练数据。通过结合知识图谱 (Knowledge Graphs) 和大型语言模型 (LLMs) ,他们找到了一种模拟人类好奇心自然流动的方法。
问题所在: “卡壳”的聊天机器人
要理解为什么 MP2D 是必要的,我们首先需要看看对话式问答 (ConvQA) 的现状。
在典型的 ConvQA 场景中,用户提出问题,系统检索答案,然后用户提出后续问题。只要后续问题是关于同一件事,现代系统的表现就很好。然而,人类的对话是流动的。根据论文引用的研究,在自然对话中,大约每 12 个轮次就会发生一次话题转换。
目前的系统在处理 话题转换 (Topic Shift) 时很吃力,原因有二:
- 检测: 它们不知道用户何时改变了主题。
- 执行: 它们不知道如何在保持对话历史的同时,流畅地过渡到新信息。
现有的关于话题转换的数据集很小,因为它们是人工标注的。研究人员需要一种无需人工干预即可生成数千个高质量、话题转换对话的方法。
解决方案: MP2D 框架
研究人员提出了 多篇章到对话 (MP2D) 。 其核心理念非常巧妙: 与其试图教模型从零开始编写对话,不如从现有知识中“逆向工程”出一段对话。
他们使用 知识图谱 (KG) 来模拟人类在关联思想时使用的心理地图。如果你想到“足球 (Soccer) ”,接下来你可能会想到“世界杯 (World Cup) ”,然后是“利昂内尔·梅西 (Lionel Messi) ”。MP2D 利用这些连接来构建对话结构。
1. 顺藤摸瓜
第一步是确定话题的逻辑流向。系统会查看知识图谱——这是一个由实体 (如人、地点或概念) 及其相互关系组成的结构化数据库。

如图 1 所示,系统追踪一条路径:
- 起点: 足球 (Soccer)
- 关系: 是一项运动,比赛包括 -> 世界杯 (World Cup)
- 关系: 涉及球员如 -> 利昂内尔·梅西 (Lionel Messi)
这条路径 (\(e_1 \rightarrow R_1 \rightarrow e_2 \rightarrow R_2 \rightarrow e_3\)) 充当了对话的骨架。因为实体在知识图谱中是相互连接的,所以从一个实体到下一个实体的过渡在逻辑上是固有的,而不是随机的。
2. 检索内容
一旦路径确定,MP2D 就需要实际的谈话内容。它将路径中的每个实体视为一个搜索查询。
- 对于“足球”,它从维基百科检索一段解释这项运动的段落。
- 对于“世界杯”,它检索一段关于该锦标赛的段落。
- 对于“利昂内尔·梅西”,它检索他的传记。
系统还会提取连接这些实体的“关系句” (\(R\)) 。这就创建了一个“多篇章 (Multi-Passage) ”文档——一个包含对话所需的所有原始信息,并按逻辑顺序排列的文本。
3. 生成对话 (“P2D”方法)
这里是自动化魔法发生的地方。研究人员使用了一种称为 篇章到对话 (Passage-to-Dialogue,P2D) 的技术。
通常,我们认为问答系统是接受一个“问题”并找到一个“答案”。P2D 则相反。它提取一个陈述句 (答案) ,并要求 AI 模型生成能够引出该答案的“问题”。

图 2 展示了这个流程:
- 左上: 在知识图谱中找到路径。
- 右上: 为每个实体检索段落 (例如,达芬奇、蒙娜丽莎、卢浮宫) 。
- 底部: 一个 LLM (在本例中为 GPT-3.5) 充当 问题生成器 。
系统将“答案”句子喂给 LLM,并说: “为这个答案生成一个问题。”通过按顺序对检索到的段落执行此操作,MP2D 构建了一个完整的对话历史。
话题转换的技巧: 研究人员发现,标准模型在话题发生改变的确切时刻,难以生成好的问题。为了解决这个问题,他们在话题转换轮次期间向 LLM 提示中注入了一条特定指令:
“Note that the conversation topic has shifted to [next_topic] from [current_topic].” (注意: 对话话题已从 [current_topic] 转换为 [next_topic]。)
这种简单的提示工程 (prompt engineering) 确保了生成的问题能够自然地连接旧话题和新话题。
它真的有效吗?
为了验证该框架,研究人员不仅查看了输出结果,还使用自动化指标和人工评估对其进行了衡量。
他们使用无参考指标 (reference-free metrics) 将 MP2D 与其他方法 (如 “Dialog Inpainter” 和 “Dialogizer”) 进行了比较。结果表明,在 MP2D 框架内使用 LLM 始终能产生更高质量的对话,特别是在保持上下文和连贯性方面。
人工评估
定量指标固然有用,但对于对话而言,人类的“感觉”才是黄金标准。研究人员让评估员和 GPT-4 根据三个标准对生成的对话进行评分:
- 转换的时机是否自然?
- 转换是否流畅?
- 整体质量是否良好?

如表 2 所示,结果令人印象深刻。人类评估发现 95.67% 的话题转换时机自然, 87.67% 的过渡流畅。这证实了知识图谱方法成功地模拟了人类的话题联想。
案例研究: 好的 vs. 坏的转换
查看具体示例有助于理解系统的能力和局限性。

在 案例 1 (表 5) 中,我们看到了平滑的转换。对话从演员 Lekain 转移到了他的学生 Larive。这是知识图谱促进的经典“实体连接”。
案例 2 突显了为什么特定的“话题转换指令”如此重要。如果没有该指令 (红色文本) ,模型会继续询问旧话题 (Rhacheosaurus,一种恐龙) ,即使答案已经转移到了 Metriorhynchidae (地蜥鳄科) 。有了该指令 (绿色文本) ,模型就能正确地问: “什么是 Metriorhynchidae?”
案例 3 显示了一个局限性。对话从一个特定的公司 (Malcolm Group) 转移到了“物流 (Logistics) ”的一般定义。虽然逻辑上相关,但在日常对话中,人类很少会从一个特定实体突然转向字典式的定义。这表明,虽然 KG 提供了逻辑,但它们并不总是能完美捕捉社交对话的规范。
TS-WikiDialog 基准测试
研究人员使用 MP2D 生成了一个名为 TS-WikiDialog 的庞大数据集。然后,他们使用该数据集来测试当前最先进的 LLM 处理话题转换的能力。
结果揭示了现代 LLM 的一个弱点。

请看图 3 中的蓝线。这张图表追踪了 GPT-3.5 在对话过程中的性能 (BLEU-4 分数) 。X 轴上的“0” (\(t_{TS}\)) 代表话题转换的确切时刻。
注意到那个明显的下凹了吗?这种下降表明, 即使是 GPT-3.5,在话题发生变化时也难以保持质量。 它被突然的上下文切换搞糊涂了。
然而,红线显示了当模型由 话题转换检测模块 (Topic Shift Detection Module) 辅助时的性能——这是一个在 MP2D 数据集上专门训练用于识别变化的小型模型。性能保持稳定,证明针对话题转换数据的专门训练可以修复这一弱点。
应用: 改进话题转换检测
MP2D 最实际的应用之一是训练更小、更高效的模型来检测话题转换。这对于需要知道何时检索新文档或重置上下文窗口的实时系统至关重要。
研究人员使用他们生成的 MP2D 数据微调了一个 T5-base 模型 (一个相对较小的模型) ,并在“话题转换检测”任务中将其与 GPT-3.5 和 GPT-4 等大型 LLM 进行了比较。

表 4 展示了一个惊人的结果。 “MP2D Knowledge-Graph (Ours)” 模型 (底部几行) 在性能上显著优于 GPT-3.5 和 GPT-4 的零样本 (zero-shot) 和少样本 (few-shot) 能力。
- GPT-4 (少样本): 28.3% 召回率 (Recall)
- MP2D T5-base: 97.3% 召回率 (Recall)
这表明,当在 MP2D 生成的高质量合成数据上进行训练时,一个小模型在特定任务上可以大幅超越通用的大模型。这对于部署 AI 系统的效率和成本效益来说是一个巨大的胜利。
结论与启示
MP2D 框架代表了自动化数据生成向前迈出的重要一步。通过利用知识图谱的结构化逻辑,研究人员找到了一种方法来创建“自然”的对话流,而无需承担人工创作的高昂成本。
这项工作的主要收获是:
- 结构很重要: 随机拼接话题是行不通的。知识图谱提供了必要的语义粘合剂,使话题转换感觉像人类对话。
- LLM 需要帮助: 即使是像 GPT-3.5 这样强大的模型也会在话题边界处跌倒。它们需要特定的数据或指令来平滑地处理过渡。
- 合成数据有效: 在这种自动生成的数据上训练的模型,在特定对话任务上的表现可以优于通才模型。
随着我们迈向能够进行长篇大论、迂回曲折的对话,而不仅仅是回答一次性查询的 AI 助手,像 MP2D 这样的框架将变得至关重要。它们提供了必要的训练场,让 AI 掌握转换话题这一微妙的艺术。
](https://deep-paper.org/en/paper/2403.05814/images/cover.png)