引言
联邦学习 (Federated Learning, FL) 彻底改变了我们训练机器学习模型的方式。通过允许设备在本地进行训练并仅共享模型更新而非原始数据,FL 承诺在数据效用与用户隐私之间找到最佳平衡点。它目前正为医疗保健、金融以及智能手机上的预测文本输入等应用提供动力。
然而,这种去中心化的架构引入了一个重大的安全缺陷: 中央服务器无法看到训练数据。这种盲区使得 FL 容易受到后门攻击 (也称为投毒攻击) 的侵害。在后门攻击中,恶意客户端将一个“特洛伊木马”注入全局模型中。该模型在标准数据上表现正常,但当遇到特定的触发器 (如像素图案或特定短语) 时,它会完全按照攻击者的意图对输入进行错误分类。
挑战在于其隐蔽性。现代攻击被设计为在统计上与良性更新相似,使得传统的通过查看更新“幅度” (大小) 来检测的方法难以奏效。此外,在非独立同分布 (non-IID) 的设置中——即客户端之间的数据差异很大——区分恶意更新和仅仅是“独特”的良性更新是一个困难的统计障碍。
在这篇文章中,我们将深入探讨一篇提出 AlignIns (Direction Alignment Inspection,方向对齐检查) 的研究论文。这种新颖的防御机制超越了简单的幅度检查,从一般和细粒度两个层面观察模型更新的方向。我们将探索 AlignIns 如何利用“主符号 (Principal Signs)”和“时间对齐 (Temporal Alignment)”来过滤攻击者,即使在高度异构的数据环境中也能奏效。
背景: 后门问题
要理解解决方案,我们必须先了解威胁的细微之处。在标准的联邦学习设置中 (使用像 FedAvg 这样的算法) ,服务器将全局模型分发给客户端。客户端在其本地数据上训练该模型,并传回“更新” (新的本地模型与旧的全局模型之间的差值) 。服务器对这些更新进行平均,以创建下一个全局版本。
攻击面
后门攻击者操纵其本地训练过程。他们可能会在一个停车标志上贴一个黄色方块,并将其标记为“限速”。如果全局模型学会了这一点,攻击者以后只需在标志上贴上黄色贴纸就能引发事故。
图 1: 后门触发器示例。在图像分类 (左) 中,添加了一个像素图案。在文本分类 (右) 中,像“This is a backdoor trigger”这样的触发短语会反转情感分析结果。
为什么现有的防御措施会失效
防御者通常试图在聚合之前过滤掉“异常”更新。
- 基于幅度的防御: 这些防御措施测量欧几里得距离或曼哈顿距离。如果一个更新与其他更新相比“太大”,它就会被拒绝。*失效模式: * 攻击者可以按比例缩小他们的更新,或在训练期间使用惩罚项,以确保他们的恶意更新看起来和良性更新一样小。
- 余弦相似度: 这测量一个更新是否指向与其他更新不同的方向。*失效模式: * 它只捕捉一般方向。它忽略了细粒度的细节 (如特定参数的符号翻转) ,并且当良性数据是非 IID 时 (意味着良性客户端自然地指向略微不同的方向) 会遇到困难。
AlignIns 的作者认为我们需要更仔细地观察——具体来说是观察更新的方向对齐 。
核心方法: AlignIns
AlignIns 的核心假设是: 虽然恶意更新模仿了良性更新的幅度,但为了植入后门,它们的优化方向必然会发生偏差。这种偏差可能很微妙,但它确实存在。
AlignIns 在服务器端运行,并通过一个四步流程来过滤更新:
- TDA: 时间方向对齐 (Temporal Direction Alignment) 检查。
- MPSA: 掩码主符号对齐 (Masked Principal Sign Alignment) 检查。
- MZ_score: 基于稳健统计的过滤。
- Clipping (裁剪): 过滤后的安全措施。
让我们分解每一步的数学原理和逻辑。
1. 时间方向对齐 (TDA)
第一次检查是宏观的。系统将客户端更新 (\(\Delta_i^t\)) 的方向与上一轮全局模型 (\(\theta^t\)) 的方向进行比较。其逻辑是,良性客户端通常会沿着与全局学习轨迹一致的方向移动模型,而攻击者则需要将其引导到其他地方 (朝向后门目标) 。
TDA 分数 (\(\omega_i\)) 使用余弦相似度计算:

这里,分子是点积 (测量对齐程度) ,分母针对幅度进行了归一化。接近 1 的值表示它们是对齐的;-1 表示它们是相反的。恶意客户端通常表现出聚集在一起但不同于良性分布的 TDA 值。
2. 掩码主符号对齐 (MPSA)
这是该论文最具创新性的贡献。TDA 提供了一个概览,但如果向量维度很大且操纵很微妙,它可能会被愚弄。MPSA 聚焦于参数的符号 (正或负) 。
随着模型的收敛,更新的幅度会缩小,使得幅度检查变得无用。然而,方向 (梯度的符号) 仍然是一个强信号。
主符号 (\(p\)): 首先,服务器计算“主符号”向量。对于神经网络中的每一个参数,服务器查看所有客户端的更新,并对符号进行“多数投票”。如果大多数客户端认为参数 \(j\) 应该是正的,则 \(j\) 的主符号为 \(+1\)。
Top-\(k\) 掩码: 并非所有参数都重要。在深度学习中,许多参数是噪声。AlignIns 使用一个 Top-\(k\) 指示器 。 对于特定的客户端,它识别出绝对值最大的前 \(k\) 个参数 (对该客户端最重要的特征) 。
计算 MPSA: 系统检查: 对于该客户端更新中的重要参数,其符号与主符号匹配的频率如何?

- \(\text{sgn}(\Delta_i^t) - p\): 检查客户端符号与多数投票之间的差异。
- \(\odot \text{Top}_k\): 掩盖掉不重要的参数。
- \(||\cdot||_0\): 计算不匹配的重要符号的数量。
结果 \(\rho_i\) 是一个介于 0 和 1 之间的比率。较高的 \(\rho\) 意味着客户端的重要更新与多数方向高度一致。试图注入特定后门特征的恶意更新通常需要翻转特定重要参数的符号,从而导致其 MPSA 分数出现偏差。
3. 使用 MZ_score 进行异常检测
现在服务器为每个客户端提供了两个分数: TDA 分数 (一般方向) 和 MPSA 分数 (细粒度符号对齐) 。它是如何决定谁是恶意的呢?
它使用 基于中位数的 Z-score (MZ_score) 。 与使用均值 (容易因离群值而产生偏差) 的标准 Z-score 不同,MZ_score 使用中位数,对极端值具有鲁棒性。

服务器计算 TDA 值和 MPSA 值的 MZ_score。如果客户端的分数超过预定义的阈值 (半径 \(\lambda\)) ,它就被标记为离群值并从聚合池中移除。这种方法可以动态适应训练过程,而无需为每一轮手动调整。
理论分析
该论文不仅限于启发式方法,还提供了一个理论框架来证明 AlignIns 的鲁棒性。
\(\kappa\)-鲁棒性
作者定义了一个称为 \(\kappa\)-鲁棒过滤的属性。理想情况下,防御措施产生的聚合更新应该与仅由良性客户端组成的平均值完全相同。\(\kappa\) 代表防御输出与理想良性平均值之间差异的上界。
论文证明了 AlignIns 是 \(\kappa\)-鲁棒的,其界限定义为:

简单来说,该等式表明误差受限于一个常数,该常数取决于恶意客户端 (\(m\)) 与良性客户端 (\(n-2m\)) 的比例、数据的方差 (\(\nu\)) 以及异构性 (\(\zeta\))。至关重要的是,只要攻击者的数量少于总数的一定比例 (大约 1/3) ,防御就是有效的。
传播误差
FL 中最大的风险之一是少量的毒素在第 \(t\) 轮泄露,从而改变了第 \(t+1\) 轮的起点,导致滚雪球效应。作者分析了传播误差——即经过 \(T\) 轮后,训练出的模型与纯良性模型之间的累积偏差。

这个不等式表明,经过 \(T\) 轮后的误差不会爆炸至无穷大。它受限于累积学习率 \(\phi(T)\) 和鲁棒性系数 \(\kappa\)。这一理论保证表明,即使 AlignIns 在每一轮中并不完美,模型也不会灾难性地偏离干净的解决方案。
实验结果
研究人员使用标准数据集 (CIFAR-10, CIFAR-100) 针对最先进的攻击 (BadNet, DBA, Scaling, PGD, Neurotoxin) 测试了 AlignIns。他们将其与 RLR, RFA, Multi-Krum 和 Foolsgold 等领先的防御措施进行了比较。
主要性能 (IID 数据)
在下表中,我们查看三个指标:
- MA (Main Accuracy): 干净数据上的准确率 (越高越好) 。
- BA (Backdoor Accuracy): 攻击成功率 (越低越好) 。
- RA (Robust Accuracy): 触发数据上的准确率 (越高越好) 。

关键结论: 看一下 CIFAR-10 的结果 (上半部分) 。在“Avg. BA” (平均后门准确率) 下,标准的 FedAvg 具有高达 56.21% 的攻击成功率。 AlignIns 将此降低到了 2.66% , 基本上消除攻击。它在做到这一点的同时,保持了与干净基线几乎相同的主任务准确率 (88.64%)。像 RLR 这样的其他防御措施虽然减少了攻击,但准确率大幅下降 (降至 79.16%) 。
非 IID 设置下的弹性
FL 中最难的挑战是非 IID 数据。当每个客户端的数据分布不同时,良性更新看起来彼此非常不同,这使得攻击者很容易隐藏。
下图显示了随着数据非 IID 程度的增加 (x 轴向左移动,较小的 \(\beta\) 意味着更高的非 IID 程度) ,鲁棒准确率 (RA) 的变化。

关键结论: 即使在 \(\beta=0.1\) (极度异构) 的情况下,带有方块的灰线 (AlignIns) 仍然保持一贯的高水平。竞争对手如 RFA (蓝色星号) 和 Lockdown (棕色圆圈) 随着数据变得更加异构或攻击比例增加 (右图) ,其性能会崩溃。这证明了 MPSA 对“重要参数”的关注在忽略数据分布偏移引起的噪声方面非常有效。
为什么我们需要两个指标? (消融实验)
仅用 MPSA 够吗?仅用 TDA 够吗?作者进行了一项消融实验,以查看每个组件的贡献。

关键结论:
- 仅 TDA: 在非 IID 设置中表现不佳 (RA 21.31%)。当大家的移动方向都不一致时,仅靠一般方向是不够的。
- 仅 MPSA: 稍好,但仍然吃力 (RA 5.79%)。
- 组合 (AlignIns): 组合后的 RA 跃升至 85.27% (IID) 和 81.32% (Non-IID)。这两个指标相辅相成: TDA 捕捉一般偏差,而 MPSA 捕捉被高方差掩盖的细粒度符号操纵。
应对高攻击比例
最后,研究人员测试了当恶意客户端数量从 5% 增加到 30% 时防御措施的表现。

关键结论: 随着攻击比例 (x 轴) 增加,像 MKrum (蓝色三角形) 和 RLR (橙色倒三角形) 这样的防御措施灾难性地失效,鲁棒性降至接近 0%。AlignIns (红色圆圈) 即使在近三分之一的网络被入侵时,也能保持平稳、稳定的性能线。
结论
联邦学习是保护隐私的 AI 的未来,但如果没有强大的安全性,它就无法成功。论文“Detecting Backdoor Attacks in Federated Learning via Direction Alignment Inspection”介绍了 AlignIns , 这是一种先进的防御机制,为后门检测树立了新标准。
通过在时间层面 (TDA) 和细粒度坐标层面 (MPSA) 检查模型更新的对齐情况,AlignIns 有效地区分了良性客户端的自然方差和攻击者的精心操纵。它在保持高准确率和低攻击成功率方面的能力,尤其是在充满挑战的非 IID 环境中,标志着向前迈出了重要一步。
对于 FL 的学生和从业者来说,结论很明确: 仅看幅度是不够的。要抓住隐蔽的攻击者,你必须观察他们试图将模型引向何处,甚至细致到参数的符号。
](https://deep-paper.org/en/paper/2503.07978/images/cover.png)