引言
在深度学习时代,数据就是新的石油。但管理这些石油正变成一场日益昂贵的后勤噩梦。现代神经网络需要海量数据集进行训练,导致存储成本高昂,训练时间动辄长达数周。这造成了极高的准入门槛,往往将无法访问工业级计算集群的学生和研究人员拒之门外。
如果你能将像 ImageNet 这样庞大的数据集 (数百万张图像) “蒸馏”成其大小的一小部分,同时保留训练模型所需的几乎所有信息,那会怎样?
这就是 数据集蒸馏 (Dataset Distillation) 的承诺。其目标是合成一小部分图像 (合成数据) ,使得在这个微小集合上训练的模型能够达到与在原始海量数据集上训练的模型相似的准确率。
虽然这个概念很诱人,但要实现它却极其困难。目前的方法往往难以在性能和计算效率之间取得平衡。它们要么生成的数据质量低,要么运行蒸馏过程需要消耗极大的 GPU 显存,这就违背了初衷。
在这篇文章中,我们将深入探讨一篇新论文: “Dataset Distillation with Neural Characteristic Function: A Minmax Perspective” 。 作者介绍了一种开创性的方法,称为 神经特征函数匹配 (Neural Characteristic Function Matching, NCFM) 。 通过将问题转移到复平面并将蒸馏视为极大极小 (minmax) 博弈,他们取得了不仅更准确而且效率显著提高的成果——将 GPU 显存使用量减少了 300\(\times\) 以上。
让我们来看看他们是如何仅用 2.3 GB 显存就实现 CIFAR-100 无损压缩的。
背景: 分布匹配的缺陷
要理解为什么 NCFM 是必要的,我们首先需要了解目前数据集蒸馏是如何进行的。最流行的一类方法被称为 分布匹配 (Distribution Matching, DM) 。
DM 背后的直觉很简单: 如果我们能强制让小型合成数据集的 统计分布 看起来与大型真实数据集的分布一模一样,那么神经网络在训练过程中就不应该能分辨出差异。
挑战在于我们如何衡量两个分布之间的“距离”。
MSE 和 MMD 的问题
早期的做法使用 均方误差 (MSE) 来匹配特征。它们会将真实图像和合成图像输入到一个网络中,并试图最小化它们特征之间的欧几里得距离。

如 图 1(a) 所示,MSE 在欧几里得空间 (\(\mathcal{Z}_{\mathbb{R}}\)) 中运作。它直接比较点。然而,匹配点级特征并不一定意味着你捕捉到了数据流形的语义结构。这有点像试图通过匹配特定像素的平均颜色而不是形状和主题,来让两幅画看起来一模一样。
为了改进这一点,研究人员采用了 最大均值差异 (MMD) 。 MMD 试图在希尔伯特空间 (\(\mathcal{Z}_{\mathcal{H}}\)) 中对齐分布的“矩” (如均值和方差等统计属性) 。虽然比 MSE 更好,但 MMD 有一个理论缺陷: 对齐矩是分布相同的 必要 条件,但不是 充分 条件。
看看下面的 图 2(b) 。 蓝色条代表真实数据分布,粉色条代表通过 MMD 优化的合成数据。即使经过 10,000 次迭代,分布仍然错位。MMD 未能捕捉到全貌,因为它依赖于可能无法以正确方式观察数据的固定核函数。

这篇论文的作者认为,我们需要一种严格、唯一且能捕捉分布 全部 信息的度量标准。
核心方法: 神经特征函数匹配 (NCFM)
研究人员提出了视角的两个主要转变来解决蒸馏问题:
- 度量标准: 从概率密度函数 (PDF) 或矩转变为 特征函数 (Characteristic Function, CF) 。
- 优化方式: 从静态损失函数转变为 对抗性极大极小 (Adversarial Minmax) 博弈。
1. 特征函数 (CF)
在概率论中,特征函数是概率密度函数的傅里叶变换。至关重要的是,特征函数与累积分布函数 (CDF) 之间存在一一对应关系。
如果两个变量具有相同的特征函数,它们就是同分布的。没有信息丢失。这使得 CF 成为分布匹配的“充分”统计量。
随机变量 \(x\) 和频率参数 \(t\) 的特征函数 \(\Phi_x(t)\) 定义为:

通过欧拉公式,这会将数据转换到复平面,从而为我们提供 幅度 (振幅) 和 相位 (角度) 信息。这是优于欧几里得度量的一个关键优势,后者会扁平化这些丰富的信息。
2. 极大极小 (Minmax) 视角
标准的分布匹配使用固定的标尺 (如 MSE) 来衡量真实数据和合成数据之间的差距。作者意识到固定的标尺是死板的。相反,他们提出了一种动态的、可学习的度量标准。
他们将数据集蒸馏表述为一个 极大极小 (Minmax) 问题:

直觉如下:
- 最大化者 (Maximizer, \(\psi\)) : 一个神经网络 (采样网络) 试图找到特定的“视点” (频率参数 \(t\)) ,在这些点上真实分布和合成分布看起来 差异最大。它最大化差异。
- 最小化者 (Minimizer, \(\tilde{\mathcal{D}}\)) : 更新合成数据集以 最小化 \(\psi\) 发现的这种差异。
这创建了一个反馈循环。随着合成数据变得更好,采样网络 (\(\psi\)) 必须更加努力地寻找细微的差异。这迫使合成数据以越来越高的精度与真实数据对齐。
回顾 图 1(b) , 你可以看到这个流程: 我们首先优化 \(\psi\) 以建立突显差异的潜在空间 \(Z_\psi\),然后在该空间内优化合成数据。
NCFM 的架构
这在实践中是什么样子的?完整的流程如 图 4 所示。

该过程包含三个主要部分:
- 特征网络 (\(f\)) : 真实图像 (\(x\)) 和合成图像 (\(\tilde{x}\)) 都通过特征提取器 (卷积神经网络) 以获得高级表示。
- 采样网络 (\(\psi\)) : 与其检查每一个可能的频率 \(t\) (这是无限的) ,不如用一个轻量级神经网络来生成特定的频率 \(t\) 进行采样。它的训练目标是挑选那些能最大化计算出的差异的 \(t\) 值。
- 复平面映射: 使用特征函数公式将特征映射到复平面。
差异度量 (NCFD)
该方法的核心是 神经特征函数差异 (NCFD) 。 这是系统试图最小化的实际数值。

这个积分看起来很吓人,但它本质上是对采样网络选择的频率 \(t\) 上的差异进行求和。
分解真实感与多样性
这篇论文最优雅的见解之一是损失函数的分解。因为他们在复平面上工作,所以可以将误差分为两个不同的部分: 幅度 和 相位 。

作者明确定义了这两个组件的作用:
- 相位差 (\(1 - \cos(...)\)) : 这编码了数据的“中心”。对齐相位确保了 真实感 (Realism) ——确保合成的猫看起来像一只猫。
- 幅度差 (\(|\Phi|^2\)) : 这捕捉了分布的尺度。对齐幅度确保了 多样性 (Diversity) ——确保合成数据集涵盖了真实集中发现的各种猫 (不同的颜色、姿势) 。
通过引入超参数 \(\alpha\) 来平衡这两项,NCFM 可以确保生成的数据既逼真又多样。

实验与结果
这些复杂的数学运算能转化为更好的性能吗?结果表明答案是肯定的。
基准测试性能
作者在 CIFAR-10、CIFAR-100 和 ImageNet 子集 (Tiny ImageNet, ImageNette 等) 等标准基准上测试了 NCFM。
下面的 表 1 展示了 CIFAR-10 和 CIFAR-100 的结果。
- IPC: 每类图像数 (Images Per Class) 。“IPC 1”意味着将整个数据集“蒸馏”到每个类别只有 一张 图像。

看一看 CIFAR-100 这一列 (IPC=1) 。之前最好的分布匹配方法 (DM) 达到了 11.4%。 NCFM 达到了 34.4% 。 对于如此高压缩率的场景来说,这是准确率的巨大飞跃。即使与通常计算量更大的轨迹匹配方法 (如 MTT) 相比,NCFM 也不落下风甚至更胜一筹。
在 ImageNet 子集等更高分辨率的数据集上( 表 2 ),这一趋势仍在继续。在“ImageSquawk”上,NCFM 在 IPC 10 时的准确率比最先进的方法提高了 20.5% 。

“高光”时刻: 效率
虽然准确率很棒,但效率数据无疑是这篇论文最重要的贡献。数据集蒸馏以极度消耗内存而闻名。许多方法 (如 MTT 或 DATM) 需要缓冲训练轨迹,这会瞬间填满 GPU 显存。
图 3 展示了准确率、速度和内存之间的权衡。

- 蓝线 (NCFM) : 高准确率,极低的内存使用量 (小点) 。
- 红线 (DATM) : 高内存使用量 (大圆圈) 。
表 3 给出了这种效率的具体数字。在 CIFAR-100 (IPC 50) 上,DATM 方法在 80GB 的 A100 GPU 上会内存溢出 (OOM) 。而 NCFM 使用不到 2GB 即可轻松运行。

作者指出: “NCFM 将 GPU 显存使用量减少了 300 倍以上……并实现了 20 倍的处理速度。” 这种效率使他们能够在单个旧款消费级 GPU (NVIDIA 2080 Ti) 上运行高 IPC 实验,从而使这一研究领域变得更加平民化。
为什么有效? (消融实验)
为了确保这些收益不仅仅是运气,作者分析了特定组件。
1. 采样网络 (\(\psi\)) 重要吗? 他们在没有对抗性采样网络的情况下进行了实验 (仅使用随机频率) 。 表 5 显示,学习到的采样网络提供了一致的提升,特别是在较高的 IPC 下 (例如,在 CIFAR-10 IPC 50 上提升了 3.2%) 。这证明了 学习 在哪里测量差异是有价值的。

2. 相位与幅度的平衡 还记得平衡相位 (真实感) 和幅度 (多样性) 的 \(\alpha\) 参数吗? 图 5 展示了调整它时会发生什么。 如果过分依赖幅度 (高 \(\alpha\)) 或过分依赖相位 (低 \(\alpha\)) ,性能都会下降。“最佳平衡点”证实了你需要几何真实感和统计多样性才能进行有效的蒸馏。

讨论: 稳定性与理论
对极大极小 (对抗性) 方法——如 GAN——的一个常见批评是训练不稳定。生成器和判别器经常震荡而不收敛。
然而,NCFM 表现出惊人的稳定性。 图 7 显示训练损失在不同数据集的迭代中平滑收敛。

为什么它很稳定?作者将其方法与 Lévy 收敛定理 联系起来。因为特征函数是一个连续、有界的变换,它不会遇到困扰标准 GAN 的梯度爆炸问题。
此外,作者得出了一个迷人的理论联系: MMD 实际上是 NCFM 的一个特例。 如果你限制特征函数只匹配特定的矩,它在数学上就会坍缩成 MMD。这解释了为什么 NCFM 绝对更优越——它概括了 MMD,捕捉了完整的分布图景。
结论
论文 “Dataset Distillation with Neural Characteristic Function: A Minmax Perspective” 代表了数据浓缩领域的显著成熟。通过抛弃对数据的“欧几里得”视角,并通过特征函数拥抱复平面,作者同时解决了两个问题:
- 准确性: 他们比以往任何时候都更精确地对齐分布。
- 效率: 他们使用线性时间计算而不是二次时间计算来实现这一点,大大降低了内存需求。
对于学生和研究人员来说,这意味着: 你不再需要庞大的计算集群来试验数据集蒸馏。有了 NCFM,在标准桌面 GPU 上进行高质量数据合成成为可能,为高效的 AI 训练和隐私保护数据共享打开了新的大门。
](https://deep-paper.org/en/paper/2502.20653/images/cover.png)