在自然语言处理 (NLP) 的世界里,我们正处于一个资源极其丰富的时代。我们拥有像 BERT 和 RoBERTa 这样的大型预训练模型,也有像 HuggingFace Hub 这样托管着数十万个数据集的平台。
理论上,这是一个金矿。如果你正在构建一个模型来检测推文中的情绪,但手头的标注数据很少,那么直接微调原始的 BERT 模型可能不是最佳选择。相反,你应该寻找一个“垫脚石”——即一个中间任务。也许先在电影评论情感数据集上微调 BERT,然后再在你的推文情绪数据上微调,会产生更好的结果。
这种技术被称为中间任务迁移学习 (Intermediate Task Transfer Learning) 。 它在理论上非常完美。然而,在实践中,它制造了一个令人难以抉择的问题: 你应该选择哪个任务?
面对超过 160,000 个可用数据集,你不可能逐一测试。即使是聪明的排序算法,通常也需要下载大型模型并对每个候选任务运行计算昂贵的前向传播。这个瓶颈使得开源社区的海量资源在实际优化中很大程度上变得无法触及。
在这篇文章中,我们将深入探讨 Schulte、Hamborg 和 Akbik 撰写的一篇名为 “Less is More: Parameter-Efficient Selection of Intermediate Tasks for Transfer Learning” 的论文。他们提出了一种新颖、轻量级的解决方案,称为嵌入空间映射 (Embedding Space Maps,简称 ESMs) 。 该方法大幅削减了寻找最佳中间任务所需的计算成本和磁盘空间,有可能让最佳迁移学习变得触手可及。
背景: 为什么中间任务很重要
要欣赏这个解决方案,我们首先需要了解工作流程。现代 NLP 的标准配方是:
- 采用一个预训练语言模型 (PLM) ,如 BERT。
- 在你的目标任务上对其进行微调。
然而,当你的目标数据集很小 (数据稀缺) 时,模型往往难以泛化。研究表明,插入一个中间步骤会有所帮助:
- 采用一个 PLM。
- 在中间任务 (数据丰富的地方) 上微调。
- 在你的目标任务上微调。
中间任务充当桥梁,教给模型与你最终目标相关的概念 (如“情感”或“逻辑”) 。
选择瓶颈
问题不在于进行迁移,而在于选择源任务。
- 暴力搜索 (Brute Force) : 在每个可用数据集上进行微调以查看效果是不可能的。
- 任务嵌入 (TaskEmb) : 一些方法试图将任务表示为向量,但这些向量可能与模型本身一样大。
- 基于模型的评分 (LogME, LEEP) : 这些是目前最先进的方法。它们将你的目标数据通过源模型进行传递以评估兼容性。问题在于?你需要为每个候选任务准备好完全微调过的源模型。如果你有 1,000 个候选任务,你需要存储和运行 1,000 个不同的神经网络。
这就是该论文的贡献改变游戏规则的地方。
核心创新: 嵌入空间映射 (ESMs)
研究人员提出了一个根本性的问题: 我们真的需要整个微调后的模型来预测一个任务是否有用吗?
当你将模型从基座状态 (\(f_0\)) 微调到微调状态 (\(f_T\)) 时,模型表示文本的方式 (其嵌入) 会发生变化。作者假设这种变化可以通过一个简单的函数来近似。如果我们不存储巨大的微调模型,而是训练一个微型网络来模仿微调引起的嵌入偏移,会怎么样?
这个微型网络就是嵌入空间映射 (ESM) 。
ESM 如何工作
ESM 是一个轻量级的神经网络——具体来说,是一个线性变换——它位于基座模型之上。它的工作是近似微调后模型的输出。
让我们看看这个近似的数学原理。

这个公式告诉我们:
- \(f_0(x)\) 是来自基座模型 (例如标准 BERT) 的嵌入。
- \(f_T(x)\) 是来自微调后模型 (例如在情感分析上训练过的 BERT) 的嵌入。
- \(\phi_{0 \to T}\) 是 ESM 。
ESM 试图获取基座嵌入并对其进行转换,使其看起来像微调后的嵌入。如果近似效果好,\(\phi_{0 \to T}(f_0(x))\) 就会成为昂贵的 \(f_T(x)\) 的廉价替代品。
下面的可视化工作流程展示了这种并行路径。

在左侧,是标准的基座模型。在右侧,是微调后的模型。标有“微调效果 (Effect of fine-tuning) ”的箭头就是 ESM 学习复制的内容。
为什么这是“参数高效”的?
一个标准的 BERT 模型拥有大约 1.1 亿个参数。要存储 1,000 个中间任务,你需要海量的存储服务器。
这里提出的 ESM 是一个单线性层 。 它将参数数量从约 1.1 亿减少到不到 60 万 。
- 磁盘空间: 减少了 278 倍。
- 计算: 你只需要运行繁重的基座模型一次来获得初始嵌入。然后,你运行轻量级的 ESM 来模拟 1,000 个不同的微调模型,所需时间仅为零头。
近似真的有效吗?
用一个单线性层来代替深度神经网络听起来很有风险。线性映射真的能捕捉到微调带来的复杂语义变化吗?
为了验证这一点,作者使用 t-SNE (一种降维技术) 来可视化不同模型如何对数据进行聚类。他们观察了 SNLI 数据集,该数据集涉及判断句子之间是相互矛盾还是相互蕴含。

让我们分解上面的可视化图:
- 左侧 (BERT) : 基座模型的聚类很乱。它不能清楚地将“蕴含 (entailment) ”与“矛盾 (contradiction) ”分开。
- 中间 (微调后的 BERT) : 这是黄金标准。类别被分离成独特的孤岛。
- 右侧 (BERT + ESM) : 这是近似结果。虽然不像中间的图那样完美,但请注意,“紫色”和“粉色”的点正在明显分离。
ESM 成功捕捉到了任务所需的语义偏移的方向和结构 , 即使它没有捕捉到每一个细微差别。对于排名哪个任务最好这一目的来说,这种近似结果已被证明是足够的。
选择工作流: ESM-LogME
作者不仅仅是孤立地使用 ESM。他们将其集成到一个名为 ESM-LogME 的排名工作流中。
LogME 是一个现有的指标,用于评估一组嵌入预测标签的能力。通常,LogME 需要真实的微调后嵌入。在这个新工作流中:
- 第一阶段 (一次性设置) : 对于 Hub 中的每个源数据集,某人 (例如 Hub 维护者) 训练一个微小的 ESM 并上传。这既快又便宜。
- 第二阶段 (用户选择) :
- 你拥有你的目标数据集 (例如低资源的推文数据) 。
- 你使用基座模型计算嵌入 (一次前向传播) 。
- 你下载 1,000 个潜在任务的微型 ESM。
- 你将 ESM 应用于你的嵌入 (极快的矩阵乘法) 。
- 你在这些“模拟”的嵌入上运行 LogME 评分器。
- 你挑选得分最高的任务。
实验设置与结果
作者进行了迄今为止同类研究中规模最大的一次研究,使用了 1,553 个源数据集和 8 个多样化的目标数据集 (范围从情感分析到性别偏见检测) 。
他们将 ESM-LogME 与多个基线进行了比较,包括:
- LogME (标准版) : 慢速、高精度的上限。
- TaskEmb / TextEmb: 基于向量的方法。
- 词汇重叠 (Vocabulary Overlap) : 一个简单的基线,检查数据集是否共享单词。
性能与效率
结果使用 Regret@k 进行评估。该指标问的是: “如果我选择算法建议的前 \(k\) 个任务之一,与实际可能的最佳任务相比,我会损失多少性能?”分数越低越好。

表 1 讲述了完整的故事:
- 排名性能 (Regret@5) : ESM-LogME 获得了 1.91 的分数 (分类任务) 。这非常接近重型 LogME 的分数 0.12 。 通俗地说,从 ESM-LogME 的前 5 个精选中进行迁移,可以获得如果你穷尽搜索整个池子所能获得的 97% 的性能。
- 运行时间 (Runtime) : 看一下“Runtime”列。ESM-LogME 每个任务仅需 423 毫秒 。 标准 LogME 需要 4,501 毫秒 。 这是一个 10 倍的加速 。
- 内存 (Memory) : 这是最令人震惊的数据。ESM-LogME 需要 2 MB 内存。标准 LogME 需要 639 MB 。 这实际上就是存储一首歌和存储一张 CD-ROM 的区别。
迁移增益的真相
必须注意的是,迁移学习并不是魔法——它并不总是有帮助。作者可视化了不同任务的性能增益分布。

在图 3 中,虚线代表基线 (无迁移学习) 。
- 好消息: 对于大多数任务 (如
TES和J-STS) ,“小提琴”形状的大部分位于虚线之上。这意味着随机选择一个中间任务通常比什么都不做要好。 - 警告: 对于某些任务,选择一个糟糕的中间任务实际上会损害性能 (形状延伸到了线以下) 。
- 验证: 红色“X”标记代表 ESM-LogME 选择的任务。在几乎所有情况下,“X”都位于分布的最顶端,表明它成功识别了最佳源任务之一。
这对学生和从业者意味着什么
如果你是正在撰写论文的学生或行业从业者,你的 GPU 额度可能有限。你无法为了看看哪个可能提高准确率而下载 50 个不同的 500MB 模型。
ESM-LogME 改变了迁移学习的经济学。
通过将“技能” (一个微调后的任务) 的表示简化为一个简单的线性映射,它将任务可迁移性视为一个轻量级、模块化的组件。它设想了一个未来,模型中心 (Model Hubs) 不仅托管沉重的模型权重,还托管这些微型“映射 (Maps) ”的存储库。
ESM 不再需要通过搬运干草 (沉重的模型) 来在大海捞针,而是让你能够对草堆进行 X 光扫描。
结论与未来展望
这篇题为“Less is More”的论文为深度学习中的近似方法提供了令人信服的论据。我们通常认为,要获得最佳结果,我们需要最复杂的表示。这项研究证明,对于源任务选择 (Source Selection) 这一特定问题,线性近似足以捕捉到做出高精度决策所需的信号。
作者已经发布了他们的代码和一个库来共享这些 ESM。这为“任务映射中心 (Task Map Hub) ”打开了大门,在那里,选择完美的迁移学习源任务在笔记本电脑上只需几秒钟,而不是在集群上花费数天。
关键要点:
- 中间任务迁移很强大,但由于选择太多,历史上很难优化。
- ESMs 使用一个简单的线性层来近似微调的效果,节省了大量的磁盘空间和计算时间。
- ESM-LogME 是一种选择工作流,比目前最先进的方法快 10 倍,存储效率高 278 倍,而选择准确率的损失极小。
- 简单致胜: 有时,一个线性层就是你驾驭复杂嵌入空间所需的一切。
](https://deep-paper.org/en/paper/2410.15148/images/cover.png)