你如何改变一个人的想法?

几个世纪以来,这个问题一直是修辞学家、政治家和哲学家的领域。在互联网时代,它变成了 A/B 测试的领地。公司和政治竞选团队生成数百种信息变体,展示给成千上万的人,并保留点击率或捐款数最高的那种。

但 A/B 测试方法有一个缺陷: 它告诉你哪条信息赢了,但很少告诉你为什么。是语气问题?是特定的词汇?还是情感诉求胜过了逻辑?如果不理解“为什么”,生成下一条成功的信息就只是一场猜谜游戏。

在这篇文章中,我们将深入探讨 AutoPersuade , 这是 Saenger、Hinck、Grimmer 和 Stewart 提出的研究框架。这篇论文提出了一种新的工作流程,不仅能衡量说服力,还能解释它。通过结合大型语言模型 (LLM) 与一种称为 SUN 模型的新型主题模型,研究人员展示了如何识别论点中导致其具有说服力的潜在特征,以及如何利用这些洞察来生成更有效的论点。

我们将通过他们的案例研究 (关于素食主义的论点) 来剖析该方法背后的数学机制,并探讨我们如何在自然语言处理中从简单的预测转向因果解释。

说服力悖论

现代自然语言处理 (NLP) 面临一个悖论。我们拥有可以生成无数看似合理的论点的 LLM,也有可以衡量人们偏好的实验设计。然而,将两者联系起来仍然很困难。

标准的监督学习 (如 BERT 分类器) 可以预测文本是否具有说服力,但它是一个“黑盒”——它无法提供关于如何改进文本的可解释建议。标准的主题建模 (如 LDA) 给出了可解释的主题,但它是无监督的——它不知道哪些主题实际上驱动了说服力评分。

AutoPersuade 工作流程弥合了这一差距。如下图所示,它遵循一个循环的三步过程:

  1. 收集数据: 收集论点并衡量人类的反应。
  2. 发现主题: 使用专门的模型找到既能解释文本内容又能解释说服力评分的潜在主题。
  3. 估计与优化: 计算每个主题的因果效应,并使用 LLM 合成新的、经过优化的论点。

Figure 1: The AutoPersuade workflow.

让我们从数据开始,详细分解它是如何工作的。


第一步: 准备工作 (数据收集)

要建立一个说服力模型,你需要一个实验场。作者选择了素食主义——这是一个被广泛辩论、两极分化且富含不同修辞策略 (例如,动物权利、气候变化、健康) 的话题。

他们整理了一个包含 1,300 多个支持素食主义论点的庞大数据集。有些是从网络上抓取的,有些是由 GPT-4 生成或总结的。为了衡量说服力,他们不仅仅是让人在 1-10 的范围内给论点打分,因为这可能会有噪音。相反,他们使用了成对迫选设计 (pairwise forced-choice design) 。

Amazon Mechanical Turk 上的受访者会看到并排展示的两个论点,并被问到: “哪个论点更有说服力?

利用这些成对比较,研究人员拟合了一个 Bradley-Terry 模型 。 这种统计技术将一对一比赛的胜负记录转换为每个论点的单一标量“说服力得分”。这个得分记为 \(Y\),成为我们模型试图解释的基准真值 (ground truth) 。


第二步: 核心方法 (SUN 主题模型)

这是论文的技术核心。我们如何从文本中提取与我们的 \(Y\) 得分相关的可解释特征?

作者介绍了有监督半非负 (SUpervised semi-Non-negative,简称 SUN) 主题模型。为了理解它,我们需要看看矩阵分解的数学原理。

嵌入 (Embeddings) 的问题

首先,使用 OpenAI 的嵌入将论点转换为数值向量。如果我们有 \(n\) 个论点和大小为 \(s\) 的嵌入,我们会得到一个数据矩阵 \(\mathbf{M} \in \mathbb{R}^{n \times s}\)。

如果我们进行标准的无监督主题建模,我们会尝试将 \(\mathbf{M}\) 近似为两个较小矩阵的乘积:

  1. \(\mathbf{W}\): 文档-主题矩阵 (每个文档中包含多少该主题) 。
  2. \(\mathbf{B}\): 主题-嵌入矩阵 (每个主题在嵌入空间中的样子) 。

Matrix M approximation formula

然而,我们不只是想要描述文本 (\(\mathbf{M}\)) 的主题;我们想要预测说服力得分 (\(\mathbf{Y}\)) 的主题。我们假设得分是主题的线性组合:

Y approximation formula

这里,\(\mathbf{\gamma}\) 代表说服力系数 。 这些系数告诉我们每个主题对得分的贡献有多大。

统一损失函数

SUN 模型的创新之处在于,它通过试图同时满足两个目标来求解主题 (\(\mathbf{W}\)) :

  1. 准确地重构文本嵌入。
  2. 准确地预测说服力得分。

我们定义了两个损失函数 (误差度量) 。

首先是论点损失 (\(\mathcal{L}_A\)) , 它使用 Frobenius 范数 (一种测量矩阵间距离的方法) 来衡量主题描述文本的程度:

Argument Loss Formula

其次是响应损失 (\(\mathcal{L}_R\)) , 它衡量主题预测说服力得分的准确程度:

Response Loss Formula

当我们通过一个超参数 \(\alpha\) 控制,将这些结合成一个总损失函数 \(\mathcal{L}\) 时,神奇的事情就发生了:

Total Loss Function

为什么 \(\alpha\) 很重要?

  • 如果 \(\alpha \approx 1\),模型会忽略说服力得分,表现得像一个标准的无监督主题模型。它会发现文本中普遍存在的主题,即使这些主题对说服力并不重要。
  • 如果 \(\alpha \approx 0\),模型会忽略文本结构,完全专注于预测得分。这可能会导致“主题”在数学上对预测有用,但在语义上对人类来说无法解释。
  • 作者发现 \(\alpha = 0.5\) 提供了最佳平衡。

求解优化问题

通过一些巧妙的代数变换,作者展示了这个复杂的有监督问题可以被重写为针对一个统一矩阵 \(\mathbf{X}\) 的单一矩阵分解问题。

Derivation of unified loss function (参见上述推导的最后一行)

通过创建一个组合数据矩阵 \(\mathbf{X}\) (按 \(\alpha\) 缩放) 和一个组合系数矩阵 \(\mathbf{H}\),他们可以使用迭代更新算法求解最佳主题。

主题 (\(\mathbf{W}\)) 的更新规则使用了乘法更新方法。虽然公式看起来很吓人,但本质上它是上下调整 \(\mathbf{W}\) 的值直到误差最小化,同时确保主题载荷保持非负 (可解释) 。

Update rule for W

一旦模型收敛,我们就得到了主题 (\(\mathbf{W}\)) ,并且知道它们与说服力得分 (\(\mathbf{\gamma}\)) 之间的关系。

它真的有效吗?

为了验证 SUN 模型,研究人员将其预测准确性 (MSE) 与标准的监督机器学习模型 (如 Lasso 回归、梯度提升和随机森林) 进行了比较。

请记住,SUN 模型的目标不仅仅是预测——而是可解释性 。 通常,可解释模型的表现不如黑盒模型。然而,如图 2 所示,SUN 模型 (特别是 8 或 10 个主题时) 的预测错误率非常接近复杂的基准模型。

Figure 2: Predictive accuracy benchmark

这意味着我们在获得解释论点为什么有效的能力时,并没有牺牲太多的准确性。


第三步: 实验与结果

那么,实际上是什么说服了人们成为素食主义者?

利用 SUN 模型,研究人员在论点数据集中识别了 10 个潜在主题。由于该模型是可解释的,他们可以查看每个主题的常用词和文档,并为它们分配人类可读的标签。

Table 1: Labels for discovered latent topics

他们发现了从“资源利用效率低” (主题 2) 到“动物权利与物种歧视” (主题 7) 以及“健康益处” (主题 8) 等各种主题。

因果效应

识别主题只是成功了一半。AutoPersuade 框架使用因果推断来估计平均边际成分效应 (AMCE) 。 这估计了在其他因素保持不变的情况下,当文档中特定主题的存在增加时,说服力得分会发生多大变化。

为此,他们使用了一个未用于训练主题模型的“保留”估计集 (\(\mathbf{M}_E\), \(\mathbf{Y}_E\)) 。他们推断出这些新文档的主题载荷 \(\mathbf{W}_E\) 并运行回归:

Regression formula for causal estimation

结果在图 3 中可视化,为我们提供了关于这一特定议题的人类心理学的有趣见解。

Figure 3: Estimated effects of topics

结果的关键要点:

  1. 什么有效:
  • 主题 2 (低效率) : 关注肉类生产浪费 (用水、土地使用) 的论点具有最高的正向效应。
  • 主题 8 (健康) : 关注个人健康益处的论点也很有效。
  • 主题 6 (个人责任) : 赋予读者做出改变的能力效果良好。
  1. 什么会适得其反:
  • 主题 7 (动物权利/物种歧视) : 令人惊讶的是,关注动物权利道德哲学的论点对普通人群的说服力有负面影响。
  • 主题 9 (回应批评) : 防御性的态度或参与关于谬误的元辩论也往往会降低说服力。

这就得出了一个获胜论点的明确配方: 关注效率和健康;避免道德说教。


第四步: 闭环 (生成更好的论点)

AutoPersuade 框架的最终测试是“Auto” (自动) 部分。我们能否利用这些洞察来设计更好的论点?

研究人员进行了验证研究,利用 GPT-4 根据获胜主题生成新论点。他们尝试了两种策略:

  1. 加强重点: 重写现有论点以增强其主导主题。
  2. 论点合成: 提示 GPT-4 结合两个表现良好的“原型论点” (例如,结合效率 + 健康) 。

然后,他们进行了新一轮的人类成对比较,看看这些工程化的论点是否能击败原始人类/网络数据集中最好的论点。

Table 2: Validation Study Results

结果 (表 2,验证研究 1) 令人印象深刻:

  • 论点合成 (SY) 论点在 54% 的时间里击败了原始数据集中的最佳论点。
  • 它们也击败了通过简单要求 GPT-4“写一个有说服力的论点”生成的论点( GPT-best )。

这证实了分析性地找到最佳组件并进行合成,比仅依靠人类直觉或原始 LLM 能力能产生更好的结果。

关于局限性的说明

然而,研究人员在验证研究 2 中发现了一个有趣的限制。当他们试图进一步优化论点 (将主题载荷推向分布的极端尾部) 时,收益消失了。

这表明说服力存在收益递减。你可以通过增加“健康”成分来改善论点,但如果让它 100% 关于健康而没有其他内容,可能会让它听起来重复或不自然。该框架非常擅长找到改进的方向 (平均边际成分效应) ,但找到绝对的全局最大值仍然是一个挑战。


结论与启示

AutoPersuade 代表了计算社会科学向前迈出的重要一步。它让我们从“这会病毒式传播吗?”的黑盒预测,转向“这为什么有效?”的结构性理解。

通过统一嵌入、主题建模和因果推断,作者为以下方面提供了蓝图:

  1. 发现辩论中的隐藏主题。
  2. 衡量哪些主题实际上驱动了人类的认同。
  3. 构建科学地针对这些主题的新信息。

虽然案例研究侧重于素食主义,但其影响延伸到了公共卫生信息、政治演讲和市场营销。像 AutoPersuade 这样的框架不再猜测公众想听什么,而是允许我们询问数据,确定说服力的因果杠杆,并精心制作真正引起共鸣的信息。

对于数据科学的学生来说,这篇论文是损失函数设计 (SUN 模型) 和将因果推断应用于非结构化文本数据的经典范例。它提醒我们,有时,最强大的 AI 不是写文本的那个,而是告诉我们要写什么的那个。