如果你曾试玩过像 ChatGPT 或 Claude 这样的大型语言模型 (LLM) ,你会知道其中的魔力不仅仅在于模型预测下一个词的能力。它在于模型遵循你的指令、回答你的问题以及充当得力助手的能力。这种能力是通过一种称为监督微调 (Supervised Fine-Tuning, SFT) 的过程实现的。
但这里有个陷阱: SFT 需要海量的高质量对话数据集——具体来说是成对的 * (指令,回复) *。人工策划这些数据集不仅极其昂贵,而且速度缓慢。为了解决这个问题,研究人员转而使用 LLM 来生成自己的训练数据,这种技术被称为自举法 (bootstrapping) 。
然而,现有的自举方法有一个主要缺陷。它们通常依赖随机采样来产生新想法,这可能导致数据通用化、重复或质量低下。
在这篇文章中,我们将深入探讨 KNN-INSTRUCT , 这是由中国科学技术大学的研究人员提出的一种新颖方法。该方法摒弃了随机运气,转而使用 K近邻 (KNN) 推演来系统地构建高质量、多样化的指令数据集。我们将探讨它的工作原理、为什么它优于现有方法,以及它在 7B 参数模型上取得的惊人成果。
对齐的瓶颈
在理解解决方案之前,我们需要先了解问题所在。预训练的 LLM (如 LLaMA 或 Qwen 的基础版本) 已经阅读了整个互联网,但它们并不一定懂得如何聊天。为了使它们与人类意图对齐,我们需要 SFT。
通常有三种获取 SFT 数据的方法:
- 人工标注: 专家编写问题和答案。质量高,但非常昂贵且难以扩展。
- 用户模拟: 一个 AI 扮演用户,另一个扮演助手。
- 自举法 (自我指令) : 这就是 KNN-INSTRUCT 的切入点。
现有自举法的问题
最著名的自举方法是 SELF-INSTRUCT 。 它的工作原理是选取一小部分“种子”人工指令集 (例如 175 个示例) 。然后它随机选取几个示例,展示给一个强大的模型 (如 GPT-3.5) ,并说: “这里有一些任务示例。请想出一个新的任务。”
KNN-INSTRUCT 的研究人员指出了这种“随机采样”策略的一个关键弱点。当你给 LLM 提供三个随机的、不相关的示例——比如一个关于烹饪,一个关于量子物理,一个关于写诗——并要求它生成一个新任务时,模型往往会感到困惑,或者默认生成非常通用的主题,如气候变化或健康饮食。由此产生的数据缺乏深度和特异性。
KNN-INSTRUCT 登场
这篇论文的核心假设简单而深刻: 相关的指令能构成更好的演示。
如果我们不向模型展示随机示例,而是展示语义相关的示例会怎样?如果我们希望模型生成一个复杂的编程挑战,我们就应该向它展示现有的编程挑战。这就是 KNN-INSTRUCT 的基础。
架构
KNN-INSTRUCT 框架是一个迭代循环,从种子池中扩展数据集。让我们直观地分解这个工作流程。

如图 1 所示,该过程包含五个不同的步骤:
- 种子池初始化: 我们从一组高质量的指令开始。
- 采样: 我们从池中选取一个单一的“核心”指令。
- KNN 搜索: 系统不是挑选随机的搭档,而是在现有池中搜索与核心指令最相似的 \(K\) 个指令 (最近邻) 。
- 合成: 这些相似的指令被用作提示 (少样本演示) ,要求 ChatGPT 生成一个新的指令和回复。
- 更新: 新创建的对话被添加回池中,循环重复。
这种方法确保了提供给教师模型的“上下文”是连贯的,鼓励它产生细致、具体且高质量的新数据。
关键创新 1: KNN 推演
该方法的核心是 K近邻 (KNN) 推演 。 为了实现这一点,研究人员使用了文本嵌入 。
对于数据集中的每条指令,他们计算一个向量表示 (使用名为 SimCSE 的模型) 。这把文本变成了数字,相似的想法在数学空间中彼此靠近。当系统选择一条指令时,它会计算余弦相似度以找到最近的邻居。
通过设置 \(K=2\) (使用 2 个邻居 + 核心指令 = 3 个示例) ,发送给 ChatGPT 的提示看起来像这样:
- 示例 1: 一个关于意大利与挪威咖啡文化的问题。
- 示例 2: 一个关于挪威的意大利菜肴的问题。
- 示例 3: 一个关于咖啡冲泡方法的问题。
- 任务: “基于这些创建一个新的指令。”
因为示例是连贯的,模型受到启发去创建一个语义相关但新颖的指令——也许是关于日本与英国的茶文化——而不是一个通用的、不相关的任务。
关键创新 2: 更好的种子
自举是一个复利过程。如果你的起始种子不好,最终的数据集也会很差。最初的 SELF-INSTRUCT 仅使用了 175 个种子。KNN-INSTRUCT 显著扩大了这一规模。
研究人员利用了“10k-prompts-ranked”数据集,其中包含按质量评分的指令。然而,他们并没有直接使用全部数据。他们仔细分析了质量分布。

如图 2 所示,质量参差不齐。为了确保最高标准,他们筛选了得分严格高于 4.0 的指令。这产生了 3,026 条高质量种子指令 , 他们将其命名为 Seeds-3k 。 这比以前的方法提供了更多样化和更坚实的基础。
关键创新 3: 效率与成本
KNN-INSTRUCT 的一个实际改进在于它如何处理过滤。以前的方法 (如 SELF-INSTRUCT) 会生成一条新指令,然后运行繁重的“ROUGE-L”重叠检查,以确保它与现有数据不太相似。这通常会导致丢弃 60% 的生成数据——这是巨大的资金浪费。
KNN-INSTRUCT 放弃了这种激进的过滤。相反,他们依靠精心设计的提示,明确告诉模型要“原创”且“独立”。
结果是一个非常经济的过程。研究人员使用 GPT-4o-mini 的价格估算了生成他们的 12,000 个样本数据集 (KNN-INST-12K) 的成本:

合成数据集的总成本约为 **$1.02 **。 这种极低的准入门槛使得预算有限的学生和研究人员也能使用这种方法。
实验与结果
为了证明这种方法有效,作者将 KNN-INSTRUCT 与几个著名的基线进行了比较:** Alpaca**、ShareGPT、UltraChat 和 **Evol-Instruct **。
他们专注于两个主要基准测试:
- **AlpacaEval: ** 使用 GPT-4 判断针对基线模型的胜率。
- **MT-Bench: ** 一个严格的多轮问题基准测试,由 GPT-4 评分。
初步结果 (GPT-3.5 教师)
在第一轮实验中,他们使用 GPT-3.5 作为“教师” (编写指令的模型) ,并训练了标准的 7B 模型 (LLaMA-2 和 Qwen) 。

表 1 展示了结果。行突出显示了应用于相同基础模型的不同数据集。
- Qwen-7B + KNN-INSTRUCT 取得了 7.38 的 MT-Bench 分数,击败了官方的 Qwen-7B-Chat 模型 (7.33) 。
- LLaMA-2-7B + KNN-INSTRUCT 得分为 **6.45 **, 显著优于 Alpaca-12k 基线 (6.25) 。
数据表明,对于完全相同的数据集大小 (12k 样本) ,KNN 推演提供的质量产生了一个更聪明的模型。
为什么数据更好?
研究人员不仅仅看分数;他们还分析了生成数据的语言特征。

表 2 提供了统计细分。虽然 ShareGPT 拥有最大的词汇量 (可能是由于噪音和多语言内容) ,但 KNN-INST-12K 保持了非常高的**平均轮次长度 (421.57 Token) 和高词汇多样性 **。 这表明模型正在生成复杂、详细的指令,而不是简短、简单的查询。
重磅实验: Qwen2-7B
初步结果令人鼓舞,但研究人员想看看他们能将性能推多远。他们将教师模型升级为 **GPT-4-Turbo **, 生成了一个名为 KNN-INST-12K* 的精炼数据集。
他们在这个数据上微调了强大的 Qwen2-7B 模型。结果令人震惊。

表 3 展示了排行榜。模型 Qwen2-7B-KNN-INST-12K* 取得了 7.64 的 MT-Bench 分数。
这个分数意义重大,因为:
- 它超越了 Starling-LM-7B (7.48)、OpenChat-3.5 (7.07) 和 Zephyr-7B-beta (6.53)。
- 在对话的第一轮中,它实际上击败了 **GPT-3.5-Turbo-0125 **(8.23 对 7.96) 。
这证实了凭借高质量、KNN 推演的合成数据,一个小型的 7B 模型可以表现远超其参数量级,在单轮交互中与专有模型相抗衡。
消融实验: 真正起作用的是什么?
在研究中,验证方法为什么有效至关重要。是因为 KNN 吗?是因为种子数据吗?还是仅仅是运气?作者进行了广泛的消融实验来隔离这些变量。
‘K’ 值重要吗?
寻找邻居真的有帮助吗,还是随便找几个样本也行?研究人员改变了 \(K\) (邻居的数量) 并测量了性能。

图 3 显示了一个清晰的趋势。随着 \(K\) 从 2 增加到 6,模型性能 (蓝星线) 总体呈上升趋势。这验证了核心前提: 提供更相关的上下文有助于教师模型合成更好的训练数据。
随机 vs. KNN
为了绝对确定,他们进行了直接比较:** KNN-INSTRUCT** vs. **RAND-INSTRUCT **(像原始 SELF-INSTRUCT 那样使用随机采样) 。

表 4 终结了这场争论。在几乎所有的指标和模型上,KNN 方法都获胜。例如,在 Qwen-7B 的 AlpacaEval 上,KNN 得分为 **75.86% **, 而随机得分为 **74.47% **。 这完全源于数据采样方式的一致改进。
种子的重要性
“Seeds-3k”数据集应占多大功劳?研究人员将他们的种子换成了原始的“Manual-175” (来自 SELF-INSTRUCT) 和一个过滤后的“ShareGPT”集。

表 5 强调了种子质量是巨大的。使用小的“Manual-175”集将 MT-Bench 分数从 7.38 拉低至 **6.72 **。 这证明虽然 KNN 推演很强大,但它需要一个多样化、高质量的起始池才能有效工作。
可扩展性: 越多越好吗?
最后,研究人员问道: “如果 12k 样本很好,那么 36k 样本会好三倍吗?”

图 4 揭示了 LLM 微调中常见的一个现象:** 边际收益递减 **。 性能在 30k 样本左右达到峰值 (得分 7.39) ,实际上在 36k 时略有下降。这表明对于特定的教师模型和种子集,存在一个最佳数据集大小。简单地用更多合成数据淹没模型并不能保证无限获得更好的结果。
相似度过滤器
关于 KNN 的一个担忧是邻居可能过于相似,导致模型只是复制输入而不是创造新东西。研究人员分析了邻居的相似度分布。

图 5 显示第一个最近邻 (\(n1\)) 通常非常相似 (相似度 > 0.8) 。为了对抗冗余,他们引入了一个**相似度过滤器 **(论文中的表 6,此处为概念可视化) : 如果邻居太接近 (相似度 > 0.7) ,系统会跳过它们或强制变化。该过滤器将 MT-Bench 分数从 7.14 提高到 7.42,证明了邻域内的多样性至关重要。
结论与启示
KNN-INSTRUCT 为 AI 领域的学生和研究人员提供了一个令人信服的教训:** 数据质量和构建策略与模型架构同样重要,甚至更重要。 **
通过从随机采样转向语义推演 (KNN) ,作者创建了一个能够生成更干净、更多样化且指令更密集数据的管道。他们以极低的成本 (1.02 美元一个数据集!) 实现了这一目标,并在排行榜上击败了顶级的开源模型。
主要收获:
- **上下文为王: ** 用语义相关的示例提示教师模型比随机示例能产生更好的合成数据。
- **种子至关重要: ** 更大、经过质量过滤的种子数据集对于自举法必不可少。
- **效率: ** 如果你的提示工程能确保原创性,你就不需要复杂的过滤管道。
- **小模型大能力: ** 有了正确的 SFT 数据,7B 模型可以超越大得多或更旧的专有模型。
虽然当前的方法侧重于单轮对话,但将其扩展到多轮对话的潜力代表了一个令人兴奋的前沿领域。目前,KNN-INSTRUCT 对于任何希望高效且有效地对齐自己 LLM 的人来说,都是一个强大的框架。
](https://deep-paper.org/en/paper/file-3242/images/cover.png)