引言
我们都有过这样的经历。你向一个聊天机器人倾诉——也许是为了测试它的能力,或者只是想找个倾诉对象——你说: “我对我的工作量感到非常焦虑。”机器人回答: “听到你对工作量感到焦虑,我很难过。压力确实让人难受。”
从技术上讲,这句话是正确的。从语法上讲,它是完美的。但在情感上?它感觉很空洞。它感觉像是一个模板。它缺乏人类倾听者那种微妙的“专注度” (attentiveness) ——人类知道什么时候该询问更多细节,什么时候只需简单地说一句: “天哪,那听起来真难熬。”
问题不在于大型语言模型 (LLM) 懂的词汇不够多;问题在于它们在语用学 (pragmatics) ——即语言的社交规则——方面很吃力。具体来说,它们难以管理提供信息的数量 (quantity) 。它们通常只是预测概率最高的下一个词,而不考虑对于特定的情感语境,自己说的话是太多了还是太少了。
在一篇题为 “Towards LLM-powered Attentive Listener: A Pragmatic Approach through Quantity Self-Repair” (迈向 LLM 驱动的专注倾听者: 一种基于数量自我修复的语用学方法) 的精彩新论文中,来自香港理工大学的研究人员提出了一种受人类心理学启发的解决方案。他们建议,为了成为更好的倾听者,LLM 需要学习自我修复 (Self-Repair) 的艺术: 即能够在心理上“漫游”遍历不同版本的回答,并挑选出信息量最完美的那一个。
理论基础: 格赖斯准则与自我修复
要理解为什么聊天机器人听起来往往很奇怪,我们需要看看语言学。哲学家 H.P. Grice 提出了数量准则 (Quantity Maxims) ,其中规定说话者应该:
- 使所做的贡献包含交流所需的信息 (不要隐瞒必要信息) 。
- 不要使所做的贡献包含超出所需的信息 (不要啰嗦) 。
人类通过一个称为自我修复的过程自然地做到这一点。在我们说话之前,我们经常在脑海中起草一个句子,意识到它太模糊或太冒犯,然后“修复”它。

如图 1 所示,人类倾听者最初可能会想: “所以待在家里导致你去看全科医生 (GP) 。”但他们可能会修复这个内部想法,使其更具同理心和试探性: “所以听起来……那是导致你去看全科医生的原因。”这种微妙的调整防止了倾听者听起来自以为是 (“Too Meaningful/Aggrandizement”,过度解读/傲慢) 或冷漠 (“Meaningless”,无意义) 。
研究人员认为,目前的 LLM 缺乏这种“隐性”的自我修复过程。它们只是生成内容。为了解决这个问题,论文介绍了两种新颖的机制: Q-Tuning (教模型调整信息量) 和 Q-Traveling (使用搜索算法找到最佳回答) 。
核心方法: 微调与漫游
研究人员的方法建立在这样一个理念之上: 对于任何给定的回答,都存在 “Q-候选项” (Q-alternatives) ——即包含更多或更少具体信息的回答变体。
1. Q-候选项的概念
想象一个对话,用户说: “我前几天收到了一些不错的东西,是我伴侣送的巧克力。”
LLM 可以有多种回答方式。它可以非常具体 (Q+) ,问“是什么牌子的巧克力?”,或者不那么具体 (Q-) ,只是简单地确认这个举动。

图 2 展示了这种“思维漫游” (Mental Traveling) 。模型不应该只选择它的神经网络想到的第一件事。它应该探索这些选项——向更具体 (Q+) 或更不具体 (Q-) 的分支移动——以找到符合对话目标的“最优”回答。
2. Q-Tuning: 训练能力
在模型能够选择最佳选项之前,它必须先学会如何生成这些选项。这就是 Q-Tuning 发挥作用的地方。
研究人员使用了一种称为语义采样 (Semantic Sampling) 的技术来创建训练数据集。他们提取人类的回答 (\(u^h\)) ,并提示标准的 LLM 创建两个变体:
- 下采样 (Down-sample, \(u^{h-}\)) : 用更广泛的概念 (上义词) 替换词语或删除细节。这代表 Q- 。
- 上采样 (Up-sample, \(u^{h+}\)) : 用具体的例子 (下义词) 替换词语或增加细节。这代表 Q+ 。
例如:
- *原句: * “That is a heavy subject.” (这是一个沉重的话题。)
- *下采样 (Q-): * “That is a tough issue.” (这是一个棘手的问题。) ——更宽泛,强度更低。
- *上采样 (Q+): * “That is a weighty issue and a difficult situation to grapple with.” (这是一个举足轻重的问题,也是一个难以应对的局面。) ——更具体,强度更高。
然后,他们使用特定的损失函数对 LLM 进行微调,教模型根据指令生成这些变体。

图 3 (左侧) 展示了这个过程。模型利用其内部的语义知识,学习如何在“信息量”的标尺上滑动。
3. Q-Traveling: 推理引擎
一旦模型经过了“Q-Tuning”,它就知道如何改变它的回答。但它应该在何时改变呢?这是由 Q-Traveling 在实际聊天中处理的。
系统不仅仅是生成一个回答,而是使用一种启发式搜索算法 (具体来说,是 A* 搜索的一种变体) 。
- 初始化 (Initialize) : 模型生成一个基础回答 (\(u^0\)) 。
- 扩展 (Expand) : 它生成一个“更具体”的版本 (\(u^{p+}\)) 和一个“更不具体”的版本 (\(u^{p-}\)) 。
- 评分 (Score) : 它使用一个启发式函数 (\(\mathcal{H}\)) 来评估这些选项。该函数根据当前目标 (例如“要有同理心”或“要有帮助”) 对回答进行评分。
- 选择与重复 (Select & Repeat) : 它选择得分最高的路径并继续,直到找到最佳回答。
数学目标是在一系列自我修复后,找到使该启发式得分最大化的最终回答 (\(u^T\)) :

这将对话生成从简单的概率游戏转变为一个规划问题 。 模型实际上在思考: “这也太具体了吗?让我试着含糊一点。不,那样太冷漠了。让我试着具体一点但要有同理心。是的,这个分数很高。我就这么说。”
实验与结果
研究人员使用两个数据集: Empathetic Dialogue (ED) 和 Emotional Support Conversation (ESC) , 对他们的方法 (应用于 LLaMA-2 和 Mistral) 与标准基线进行了测试。
它听起来真的更像人类吗?
为了验证这一点,他们进行了人工评估。他们要求人类评审员根据三个标准对回答进行评分: 像人类 (Human-like) 、有同理心 (Empathetic) 和专注 (Attentive) 。

表 2 中的结果令人震惊。 LlaMA + Q-Traveling 模型显着优于基础 LlaMA 模型。
- 像人类 (Human-like) : 41.7% 的胜率 (相比之下输率为 30%) 。
- 专注 (Attentive) : 46.7% 的胜率 (相比之下输率为 40%) 。
这表明“自我修复”过程使 AI 感觉不那么机械化了。
可视化“类人”区域
论文中最引人注目的可视化之一是个性嵌入 (personality embeddings) 分析。研究人员绘制了不同模型的回答图表,以查看它们落在情感和个性谱系的哪个位置。

在图 4 中,请看红色的椭圆。基线模型 (左) 通常会分散它们的回答或聚集在“安全”但机械的区域。然而, Q-Tuning + Q-Traveling 模型 (中) 显示的密度分布看起来与人类回答 (右) 非常相似。它们成功地将 AI 的个性锚定在更像人类的“子区域”,特别是围绕“安慰” (Reassurance) 和“宣泄” (Cathartic) 特征,而不仅仅是通用的乐观主义。
适应性: 变色龙效应
Q-Traveling 的一个主要优势是你可以通过改变启发式函数 (\(\mathcal{H}\)) 来改变机器人的行为,而无需重新训练整个模型。

图 5 展示了这种灵活性。
- 目标 A (有同理心) : 当用户提到考试紧张时,模型针对同理心进行优化。它选择了一个确认感受的回答: “I hope everything is going well for you.” (我希望你一切顺利。) (较低的询问量,较高的支持度) 。
- 目标 B (有帮助) : 当目标切换到有帮助时,模型“漫游”到一个信息量更高 (Q+) 的回答,询问细节: “What subject is the exam for?” (考试是什么科目的?)
这证明了 Q-Traveling 不仅仅是让机器人变得“更好”——它是关于让机器人变得可控 。
结论与启示
“Q-Tuning”和“Q-Traveling”框架代表了使 LLM 成为语用沟通者的重要一步。通过摆脱简单的“下一个 token 预测”并转向“先生成后修复”的架构,我们可以构建不仅能说话,而且还能真正倾听的智能体。
关键要点是:
- 数量很重要: 同理心不仅仅关乎情感词汇;它还关乎信息的体量和具体程度。
- 自我修复是关键: 模仿人类提炼内部语言的认知过程会产生更自然的输出。
- 推理时的搜索: 通过让模型在说话前“思考” (搜索) ,我们可以显着提高回答质量。
随着我们将 LLM 继续整合到心理健康支持、教育和客户服务中,像 Q-Traveling 这样的技术将至关重要。它们架起了一台处理文本的机器与一个理解对话的伙伴之间的桥梁。
研究人员已经开源了他们的代码仓库,允许社区在这一“深思熟虑”的 AI 交互方法基础上继续构建。
](https://deep-paper.org/en/paper/file-2393/images/cover.png)