“假新闻”一词已成为现代词汇中的常客,但对于一个需要精准应对的问题来说,它是一个笨拙的工具。虚假信息不仅仅关乎真与假;它关乎造成伤害的意图以及用于欺骗的手段 。 无论是否认气候变化还是在疫情期间破坏公共卫生,虚假信息都是一种旨在改变公众认知的精心计算的行为。

为了有效地打击虚假信息,我们需要理解的不仅是内容 (what) ,还有动机 (why) 和方式 (how) 。这正是最近一篇题为 《MIPD: 探索波兰语虚假信息新语料库中的操纵与意图》 (MIPD: Exploring Manipulation and Intention In a Novel Corpus of Polish Disinformation) 的研究论文所解决的核心问题。

这项工作背后的研究人员认为,现有的数据集存在局限性,因为它们通常只关注二元分类——即简单地将文本标记为“真”或“假”。为了弥补这一缺陷,他们推出了MIPD (波兰语虚假信息中的操纵与意图) 数据集。这一庞大的语料库通过标注具体的操纵手法 (“方式”) 和作者的恶意意图 (“动机”) ,推动了该领域的发展。虽然该数据集侧重于波兰语——由于邻近俄乌冲突,这是一个关键的语言区域——但其方法论为剖析虚假信息提供了一个通用的蓝图。

背景: 虚假信息的剖析

在深入研究数据集之前,区分“错误信息” (misinformation) 和“虚假信息” (disinformation) 至关重要。欧盟委员会高级专家组 (HLEG) 将虚假信息定义为“旨在为了营利或故意造成公共伤害而设计、呈现和推广的错误的、不准确的或误导性的信息”。

这里有两个关键组成部分:

  1. 意图 (Intention) : 创作者的具体目标 (例如,造成社会两极分化或破坏对机构的信任) 。
  2. 操纵 (Manipulation) : 用于实现该目标的修辞手段 (例如,片面选取数据或诉诸恐惧) 。

从历史上看,V4国家 (波兰、捷克共和国、斯洛伐克和匈牙利) 特别容易受到虚假信息活动的攻击,尤其是那些与地缘政治冲突 (如乌克兰战争) 相关的活动。通过关注欧盟第五大常用语言——波兰语,作者为这一处于信息战前沿的地区提供了重要的资源。

MIPD 语料库: 一种多层方法

MIPD 数据集包含 15,356 篇网络文章 。 与许多依赖众包 (如 Amazon Mechanical Turk) 进行标记的数据集不同,MIPD 是由专业人士标注的。研究团队聘请了五位拥有多年事实核查和辟谣机构工作经验的波兰语母语者,以确保专家级的高质量标注。

标注过程非常严谨,遵循五个步骤的方法论:

  1. 主题分类: 确定主题 (例如: COVID-19、移民) 。
  2. 来源可信度: 评估发布者的声誉。
  3. 主要类别: 将文章标记为 *可信 (Credible) *、*虚假信息 (Disinformation) *、*错误信息 (Misinformation) * 或 *难以判断 (Hard-to-say) *。
  4. 操纵手法: 识别修辞技巧 (多标签) 。
  5. 意图类型: 识别作者的目标 (多标签) 。

至关重要的是,每篇文章都由两名专家独立标注。如果他们意见不一,则会面达成共识。如果无法达成共识,该文章将被丢弃。这产生了一个具有极高可靠性的数据集。

主题概览

该数据集涵盖了十个经常成为虚假信息活动目标的特定主题类别。如下图所示,不同主题的虚假信息分布各不相同。虽然像“超自然活动” (PA) 或“伪医学” (PSMED) 这样的类别严重倾向于虚假信息 (DIS) ,但在该特定语料库中,其他类别如“妇女权利” (WOMR) 的分布则更为平衡或倾向于可信。

图 2: 每个主题类别的虚假信息 (DIS) 和可信 (CI) 文章的百分比。

解读“方式”: 操纵手法

这篇论文最具教育意义的贡献之一是其操纵手法分类法。专家们确定了用于误导读者的独特技巧。理解这些技巧对于任何学习媒介素养或自然语言处理 (NLP) 的学生来说都是必不可少的。

研究人员标注了以下技巧:

  • 片面选取 / 摘樱桃 (Cherry Picking, CHP) : 仅选择支持论点的数据,而忽略上下文。
  • 断章取义 / 引语挖掘 (Quote Mining, QM) : 将演讲的一小部分脱离语境,以歪曲其含义。
  • 轶事证据 (Anecdote, AN) : 使用个人故事或谣言来诋毁统计数据。
  • 那又怎么说主义 (Whataboutism, WH) : 通过提出一个不相关的问题来转移争论。
  • 稻草人谬误 (Strawman, ST) : 歪曲对手的论点,使其更容易被攻击。
  • 诉诸情感 (Appeal to Emotion, AE) : 使用情绪化的语言来绕过理性思考。
  • 错误归因 (False Cause, FC) : 仅基于相关性来假设因果关系。
  • 夸大其词 (Exaggeration, EG) : 过分夸大某一现象,使其看起来灾难性或微不足道。

这些技巧的分布并非随机。如下面的热图所示,不同的主题吸引了不同的操纵风格。例如, 夸大其词 (EG)诉诸情感 (AE) 在许多类别中都很普遍,而引用错误 (RE) ——引用假专家或虚假引语——则大量用于伪医学和阴谋论中。

图 3: 在含有操纵手段的文章中,不同操纵手法在各主题类别中的百分比。

解读“动机”: 意图类型

该数据集的第二层独特之处在于意图的分类。作者将恶意目标分为几类,例如:

  • 否定科学事实 (NSF) : 挑战既定科学 (常见于气候和 COVID 主题) 。
  • 破坏公共机构 (UCPI) : 侵蚀对政府机构的信任。
  • 助长社会刻板印象 (PSSA) : 煽动同恐、仇外心理或反犹太主义。
  • 削弱国际联盟 (WIA) : 在盟国之间制造不和。
  • 提升冲突一方的士气 (RMCS) : 专门旨在提升军事冲突一方士气的宣传 (在乌克兰战争报道中很突出) 。

图 4: 在具有恶意意图的文章中,不同意图类型在各主题类别中的百分比。

上面的热图突显出,虽然某些意图是特定于主题的 (如针对乌克兰战争主题的提升士气) ,但其他意图,如助长社会刻板印象,则出现在移民、LGBT+ 甚至 5G 的叙事中。

实验与结果

手握这些高质量数据,研究人员为三个自动分类任务建立了基线:

  1. 二分类虚假信息检测: 它是可信的还是不可信的?
  2. 操纵分类: 存在哪些手段?
  3. 意图分类: 作者的目标是什么?

他们微调了波兰语版本的 BERT 模型 (HerBERT 和 Polish-RoBERTa) 并比较了结果。

任务 1: 二分类虚假信息检测

对于标记虚假信息这一简单任务,模型的表现异常出色。Polish-RoBERTa-Large 模型的准确率达到了 96%,加权 F1 分数为 0.96。这表明,当在专家标记的数据上进行微调时,现代 Transformer 模型在特定语言领域极其有效地从虚假信息中区分出可信新闻。

表 2: 虚假信息检测任务的结果。表格显示了预训练波兰语 BERT 模型在测试数据上的准确率、加权 F1 分数和 F1 分数。

任务 2: 检测操纵手法

这项任务要困难得多。这是一个多标签问题,意味着一篇文章可以包含多种操纵类型 (例如,同时包含夸大其词稻草人谬误) 。

结果显示,与二分类检测相比,性能有所下降,考虑到复杂性,这是意料之中的。表现最好的模型 (PL-RoBERTa-L) 实现了 0.47 的加权 F1 分数。

表 3: 操纵手法分类的结果。表格显示了每种操纵类型的 F1 分数。

分析上表中各类别的细分非常重要。模型在断章取义 (QM)诱导性提问 (LQ) 上非常吃力,得分接近于零。这很可能是因为这些技巧依赖于上下文,且在数据集中较为罕见,使得模型难以学习。相反, 夸大其词 (EG)引用错误 (RE) 更容易检测,这可能是由于它们具有独特的语言标记。

任务 3: 检测意图

意图分类比操纵分类更成功,虽然仍旧复杂。最佳模型的加权 F1 分数达到了 0.71

表 4: 恶意意图类型分类的结果。表格显示了每种意图类型的 F1 分数。

该模型特别擅长识别否定科学事实 (NSF) (\(F_1\) = 0.86) ,这可能是因为反科学叙事 (气候否定论、反疫苗) 中使用的词汇非常有特色。

LLM 大对决: BERT vs. GPT-4

作为研究中一个引人入胜的补充,研究人员测试了像 GPT-3.5 和 GPT-4 这样的通用大语言模型 (LLM) 是否可以在没有使用 BERT 模型那样的特定微调的情况下,“开箱即用” (零样本) 地检测虚假信息。

他们通过两种方式提示模型:

  1. 无定义: 简单地问,“这是虚假信息吗?”
  2. 有定义: 在提示中提供 HLEG 对虚假信息的定义。

表 5: GPT-4 和 GPT-3.5 的虚假信息检测任务结果。

结果发人深省。当提供定义时, GPT-4 实现了 0.86 的加权 F1 分数 。 虽然对于零样本尝试来说令人印象深刻,但它明显落后于微调过的 Polish RoBERTa 模型 (得分为 0.96) 。这强化了机器学习中的一个关键教训: 对于特定的、高风险的任务,在高质量、特定领域数据上微调的小型模型通常优于庞大的通用模型。

结论

MIPD 数据集代表了虚假信息计算研究向前迈出的重要一步。通过超越简单的二元标签并剖析文本中的意图操纵 , 作者为更深入地理解信息战提供了路线图。

给学生的关键要点:

  • 数据质量至关重要: 使用专业事实核查员而非众包,产生了一个高度可靠的数据集。
  • 虚假信息是分层的: 它不仅仅是“假”内容;它关乎特定的修辞技巧和恶意目标。
  • 微调即胜利: 对于特定语言和细微的任务,特定领域的微调仍然击败通用的零样本 LLM。

随着信息战的不断演变,不仅能识别虚假信息的内容 , 还能识别其方式动机的工具,将成为维护我们数字信息生态系统完整性不可或缺的一部分。