想象一下你正在教机器人倒茶。对你来说,这个动作是直觉性的。你会握住茶壶的把手 (而不是壶嘴) ,并将其倾斜在茶杯的开口上方 (而不是底部) 。这种直觉基于“启示 (Affordance) ”——即物体所具有的、定义了它如何被使用的属性。

多年来,计算机视觉研究主要集中在单物体启示上——例如识别出手柄是用来握的。但现实世界很少只有孤立的物体。大多数有意义的任务都涉及物体间 (Object-to-Object, O2O) 的交互 : 刀切苹果、锤子击打按钮,或插头插入插座。

挑战在于什么?教机器人这些成对的交互通常需要海量的标注数据集,而创建这些数据集极其繁琐。

在这篇文章中,我们将深入探讨 \(O^3\)Afford , 这是一篇引人入胜的研究论文,它针对这一数据瓶颈提出了解决方案。研究人员开发了一种框架,允许机器人利用仅有的一个训练样本 (单样本学习) 来学习复杂的 3D 物体间交互。通过结合 3D 点云的几何能力、视觉基础模型 (VFMs) 的语义知识以及大语言模型 (LLMs) 的推理能力,\(O^3\)Afford 使机器人能够在面对新物体和遮挡等棘手场景时实现泛化。

核心问题: 超越单物体

在机器人操作中,“落地 (Grounding) ”启示意味着将功能属性映射到物体上的特定物理区域。

以往的方法主要依赖 2D 图像。虽然 2D 计算机视觉发展迅速,但它缺乏几何深度。如果机器人只看到马克杯的 2D 图片,当相机角度改变时,它可能难以理解手柄的方向。此外,大多数先前的工作只预测孤立的单物体的启示。

然而,启示通常是关系性的。茶壶的“可倒性”只有在与容器的“可接收性”相关联时才有意义。\(O^3\)Afford 通过关注以下几点来解决这个问题:

  1. 3D 点云: 使用 3D 数据来稳健地理解几何和空间关系。
  2. 物体对 (O2O Pairs) : 同时分析源物体 (例如刀) 和目标物体 (例如苹果) 。
  3. 数据稀缺: 从单个标记样本中学习这些关系。

\(O^3\)Afford 架构

\(O^3\)Afford 框架是一个三阶段管道,旨在弥合视觉感知与机器人动作之间的差距。

Figure 1: O3Afford framework.

如上图 1 所示,该管道流程如下:

  1. 语义点云构建: 原始 3D 扫描被赋予深层语义特征。
  2. 启示定位 (Affordance Grounding) : 一个专门的神经网络预测两个物体应该在何处进行交互。
  3. 基于启示的操作: LLM 生成约束条件以指导机器人的物理运动。

让我们详细分解每个组件。

1. 语义点云构建

系统从环境的 RGB-D (红、绿、蓝、深度) 扫描开始。虽然原始的 XYZ 坐标为机器人提供了几何信息 (形状) ,但它们缺乏语义含义 (物体什么) 。

为了解决这个问题,研究人员利用了 DINOv2 , 这是一种最先进的视觉基础模型。DINOv2 在海量互联网数据上进行了训练,能够深刻理解视觉概念。研究人员将 DINOv2 的语义特征直接投影到源物体和目标物体的 3D 点云上。

这产生了一个“语义点云”。云中的每个点现在都携带一个数字向量,既代表其在 3D 空间中的位置,也代表其语义身份 (例如,“这个点是手柄的一部分”) 。这使得模型能够识别完全不同物体上的相似部分——比如在抓取的语境下,意识到喷雾瓶的扳机在语义上与茶壶的手柄是相似的。

2. 联合注意力 Transformer 解码器

一旦系统拥有了源物体 (\(\mathbf{P}^{src}\)) 和目标物体 (\(\mathbf{P}^{tgt}\)) 的语义增强点云,它就需要弄清楚它们如何交互。

这由 启示定位模块 处理。该架构使用 PointNet 编码器提取局部几何特征,将点云转换为标记化 (tokenized) 的表示 (\(\mathbf{Z}^{src}\) 和 \(\mathbf{Z}^{tgt}\)) 。

创新之处在于这些表示如何相互对话。交互是双向的。要理解在哪里切苹果,你需要知道刀的形状。要理解如何握刀切苹果,你需要知道苹果的形状。

研究人员实现了一个 联合注意力 Transformer 解码器 (Joint-Attention Transformer Decoder) 。 如果不单独处理物体,他们使用一种交叉注意力机制,源物体的特征会关注目标物体,反之亦然。

Cross Attention Equation

如上面的方程所述,\(\mathbf{A}^{src}\) (源物体的启示特征) 是通过将源标记 \(\mathbf{Z}^{src}\) 与目标标记 \(\mathbf{Z}^{tgt}\) 进行交叉引用得出的。对于 \(\mathbf{A}^{tgt}\) 也是反向同理。这种双向流动确保模型理解交互的上下文

该网络经过训练,为云中的每个点输出一个 0 到 1 之间的分数,表明该点参与交互的可能性。这是使用二元交叉熵 (BCE) 损失进行训练的:

BCE Loss Equation

该损失函数强制模型最小化预测的启示图与真实值 (由单样本提供) 之间的差异。

3. LLM 指导的操作

预测启示图 (“在哪里”) 只是战斗的一半。机器人仍然需要知道“如何”移动。这就是大语言模型 (LLMs) 发挥作用的地方。

为每种可能的交互 (倒水、切割、悬挂) 硬编码规则是脆弱的。相反,\(O^3\)Afford 使用 LLM (在他们的实验中特别是 GPT-4) 作为逻辑引擎。系统向 LLM 提供描述任务和物体的提示词。然后,LLM 生成一个 Python 约束函数

Example of Generated Python Code

上面的图 11 展示了 LLM 生成的代码示例。它基于预测的启示区域的质心计算对齐分数。

生成的函数充当优化算法的成本函数。机器人的运动规划器尝试找到一个 6-DoF (六自由度) 位姿 \(\mathbf{T}\) 来最小化这个成本:

Optimization Equation

这里,\(\mathcal{S}_i\) 代表 LLM 生成的约束函数。通过最小化这个方程,机器人可以找到执行任务所需的精确位置和方向,例如将茶壶嘴精确地对准碗中心的上方。


它有效吗?实验与结果

研究人员将 \(O^3\)Afford 与几个基准进行了对比测试,包括 O2O-Afford (之前的 3D 方法) 、IAGNet (基于图像的方法) 和 RoboPoint (视觉语言模型方法) 。

启示定位准确性

第一个问题是: 模型能正确识别交互部位吗?

Qualitative Examples

在图 2 中,我们可以看到视觉对比。看“Knife (刀) ”和“Apple (苹果) ”这两列。真实值 (GT) 显示刀刃和苹果中心被红色高亮显示。

  • Ours (\(O^3\)Afford) 生成了清晰的预测,与真实值非常吻合。
  • One-shot Example (朴素映射) 充满噪声。
  • IAGNet 难以定位精确的 3D 区域。

定量数据也支持了这一点:

Table 1: Quantitative comparison

表 1 显示,\(O^3\)Afford 取得了显著更高的 IOU (交并比) 得分 26.19,而 O2O-Afford 仅为 14.31。这表明其与真实启示区域的对齐更加精确。96.00 的 AUC (曲线下面积) 进一步证明了模型的可靠性。

泛化能力: 真正的考验

这种方法的真正威力在于它的泛化能力。由于它使用 DINOv2 特征,它不只是记忆形状;它在理解语义部分。

1. 泛化到新类别 模型是在一对物体上训练的 (例如,一把刀和一个苹果) 。它能处理从未见过的配对吗,比如一把剪刀和一张纸?

Unseen Object Category Results

图 4 展示了在未见类别上的结果。模型成功预测了剪刀 (用于切割) 、衣帽架 (用于悬挂) 和喷雾瓶 (用于倒水) 等物体的启示,即使它没有经过专门训练。语义相似性使得知识得以迁移。

2. 对遮挡的鲁棒性 在现实世界中,物体会相互遮挡。机械臂可能会挡住相机对马克杯的视线。

Occlusion Results Graph

图 3 绘制了随着遮挡增加性能下降的曲线。当视线受阻时,基准方法 (橙线和紫线) 迅速崩溃,而 \(O^3\)Afford (蓝线) 即使在 50% 遮挡的情况下仍保持高度稳定性。

Visual Occlusion Examples

图 6 直观地展示了这种鲁棒性。即使点云数据中缺失了 50% 的马克杯,得益于编码器学到的鲁棒块嵌入 (patch embeddings) ,模型仍然可以推断出手柄应该在哪里。

现实世界中的机器人操作

最后,研究人员将该系统部署在真实的 Franka Research 3 机械臂上。

Real Robot Setup

他们设计了五个具有挑战性的任务: 倒水、挂杯子、按按钮、插吐司和切割。

Real World Execution

图 5 展示了执行序列。你可以看到预测的启示图 (物体上的彩色热力图) 正在指导机器人。例如,在第一行 (中间) ,机器人识别出架子上的钩子和杯子上的把手,以执行“悬挂”动作。

成功率令人印象深刻:

Table 3: Real Robot Success Rates

表 3 强调,\(O^3\)Afford 在“倒水”和“插入”等任务上达到了 8/10 的成功率,在“切割”和“按压”上达到了 9/10。基准方法 (不使用启示指导) 在像悬挂这样的复杂任务上几乎完全失败 (0/10) 。启示图为机器人规划路径提供了至关重要的“锚点”。

结论与未来展望

\(O^3\)Afford 代表了让机器人更加自主和适应性更强的重要一步。通过摆脱海量数据集并专注于单样本学习 , 它为机器人通过单次演示即刻学习新任务打开了大门。

这项研究的主要收获包括:

  • 3D 至关重要: 点云提供了 2D 图像经常遗漏的、精确操作所必需的几何保真度。
  • 基础模型是关键: 利用 DINOv2 等预训练模型,机器人系统可以“继承”关于物体部件的常识,从而实现对新类别的泛化。
  • 上下文为王: 联合注意力机制证明,要与两个物体交互,必须将它们放在一起分析,而不是孤立看待。
  • 代码即控制: 使用 LLM 将视觉启示转化为数学约束,是一种连接感知与控制的灵活方式。

尽管仍存在局限性——例如依赖于深度传感器的质量 (如下图 12 所示) ——但这项工作为下一代通用机器人奠定了坚实的基础。

Incorrect Point Cloud Example

  • (图 12: 一个因传感器噪声导致点云重建效果不佳的失败案例,提醒我们硬件质量仍然限制着软件性能。) *

随着计算机视觉和语言模型的不断融合,我们可以期待机器人将越来越有能力理解我们这个混乱、复杂世界中微妙的“启示”。