最大规模工业机器人抓取数据集发布

某中心发布业界最大规模的工业分拣场景图像数据集ARMBench,包含超过19万物体图像,涵盖物体分割、识别及缺陷检测三大任务,为训练抓取机器人提供丰富数据资源,推动机器人泛化能力提升。

某中心发布最大规模"抓取放置"机器人训练数据集

为提升仓库中分拣包装机器人的性能,某中心公开发布了工业产品分拣场景下采集的最大规模图像数据集。此前最大工业图像数据集仅包含约100个物体,而名为ARMBench的新数据集则包含超过19万个物体。该数据集可用于训练"抓取放置"机器人,使其更好地适应新产品和新环境。

ARMBench图像采集场景涉及机械臂从装满物品的箱子中取出单个物品,并将其转移到传送带上的托盘中。物体多样性及其在机器人系统中的配置和交互使这项任务极具挑战性。

三大核心任务数据集

ARMBench包含三个独立任务的图像集:

  1. 物体分割:识别同一箱内不同产品的边界
  2. 物体识别:确定参考数据库中的哪个产品图像与图像中突出显示的产品对应
  3. 缺陷检测:判断机器人是否发生错误,如一次抓取多个物品或在转移过程中损坏物品

图像分类与规模

数据集图像分为三类:

  • 抓取图像:机器人处理前箱内物品的俯视图
  • 转移图像:机器人将物品转移到托盘过程中从多个视角捕获的图像
  • 放置图像:所选物品放置后托盘的俯视图

物体分割数据集包含5万多张图像,每张图像有1到50个手动分割标注,平均约10.5个。高度杂乱的场景结合物体多样性(部分物体甚至透明或反光)使其成为具有挑战性的独特基准。

物体识别数据集包含超过23.5万个标注的"抓取活动",每个活动包括一张抓取图像和三张转移图像。还包含19万多种产品的参考图像和文本描述。在该任务中,模型必须学会将这些参考产品与抓取和转移图像中突出显示的对象进行匹配。

缺陷检测数据集包含静态图像和视频。19,000多张静态图像在转移阶段捕获,用于训练缺陷检测模型,以判断机械臂是否无意中损坏物体或一次抓取多个物体。4,000个视频记录了导致产品损坏的抓放活动。

技术挑战与应用价值

仓库环境中缺陷检测的严格准确性要求需要探索和改进多项关键计算机视觉技术,如图像分类、异常检测和视频中缺陷事件检测。

该数据集将继续扩展图像和视频数量以及所描绘的产品范围。期望ARMBench能够帮助提高机器人的实用性,使仓库工作人员从重复性任务中解放出来。数据集的大规模、多样性和高质量标注也使其适用于训练其他类型的计算机视觉模型,而不仅仅是控制仓库机器人的模型。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计