最大规模机器人抓取训练数据集发布

某中心发布目前最大规模的工业场景机器人抓取数据集ARMBench,包含超过19万件物品的23.5万组标注数据,涵盖物品分割、识别及缺陷检测三大任务,为机器人抓取操作提供重要训练资源。

某中心发布最大规模"抓取放置"机器人训练数据集

为提升仓储环境中分拣包装机器人的性能,某中心公开发布了工业产品分拣场景中采集的最大规模图像数据集。此前最大的工业图像数据集仅包含约100件物品,而名为ARMBench的新数据集则包含超过19万件物品。该数据集可用于训练"抓取放置"机器人,使其能更好地适应新产品和环境。

该数据集基于将在国际机器人与自动化会议(ICRA)上发表的论文开发。数据采集场景涉及机械臂从装满物品的货箱中取出单个物品,并将其传送至输送带上的托盘。物品多样性及其在机器人系统中的配置和交互使该任务具有独特挑战性。

三大核心任务

ARMBench包含三个独立任务的图像集:

  1. 物品分割:识别同一货箱中不同产品的边界
  2. 物品识别:将图像中的突出产品与参考数据库中的产品图像进行匹配
  3. 缺陷检测:判断机器人是否发生错误,如一次抓取多个物品或传输过程中损坏物品

数据类型分类

数据集图像分为三类:

  • 抓取图像:机械臂处理前装满物品的货箱俯视图
  • 传输图像:机器人将物品传送至托盘时从多视角捕获的图像
  • 放置图像:所选物品放置托盘的俯视图

数据集规模与挑战

物品分割数据集包含5万多张图像,每张图像包含1-50个手动分割标注,平均约10.5个。高度杂乱的场景结合物品多样性(部分物品甚至透明或反光)使其成为具有挑战性的基准。

物品识别数据集包含超过23.5万个标注的"抓取活动",每个活动包括一张抓取图像和三张传输图像。还包含19万多种产品的参考图像和文本描述,模型需学习将参考产品与抓取和传输图像中的突出物体进行匹配。

缺陷检测数据集包含静态图像和视频。1.9万多张静态图像在传输阶段捕获,用于训练缺陷检测模型。4000个视频记录了导致产品损坏的抓放活动,而数据集还包含10万多个无缺陷抓放活动的图像和视频。

技术意义

仓储环境对缺陷检测的严格精度要求需要改进多项关键计算机视觉技术,如图像分类、异常检测和视频缺陷事件检测。该研究团队在论文中介绍了构建ARMBench任务模型的多种方法,并报告了模型性能指标,为其他研究人员提供基准参考。

数据集将持续扩展图像视频数量和产品范围,旨在提升机器人效用,减轻仓储工作人员的重复性任务。ARMBench数据的规模、多样性和标注质量也有助于训练其他类型的计算机视觉模型。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计