联合DeepMind!戴盟机器人把触觉装进数据主干,训练效率飙升10倍

背景:机器人智能进化的数据瓶颈

  • 随着人工智能技术的快速发展,机器人在算法和算力方面已取得长足进步。
  • 然而,机器人在物理世界中执行复杂任务仍受限于高质量训练数据的匮乏
  • 特别是在灵巧操作和精细控制领域,缺乏真实人类操作过程中包含的触觉、力控等多维信息,成为制约通用机器人能力发展的关键因素。

技术亮点:DM-EXton2系统的核心创新

戴盟机器人推出全球首款力/触觉反馈遥操作数据采集系统 DM-EXton2,标志着机器人数据采集技术的重大突破:

联合DeepMind!戴盟机器人把触觉装进数据主干,训练效率飙升10倍

  • 力/触觉反馈功能:在操作过程中,系统能实时将接触力、物体软硬等触觉信息反馈给操作者,使其拥有“手感”。
  • 低延迟与高精度:系统延续了上一代产品的优势,确保数据采集与操作同步、精准。
  • 异构兼容性:适配多种机器人末端执行器,包括夹爪、灵巧手等。
  • 快换设计:通过卡扣式结构实现手柄模式与手套模式的快速切换,无需工具。
  • 人机工学优化:提升佩戴舒适度与操作便捷性,增强用户体验。

应用场景与性能突破

  • DM-EXton2在精密抓取、柔性操作等任务中表现出色,如易碎物品搬运、精密插拔等。
  • 即便在视觉受限的场景下,操作员也可依靠力反馈判断物体状态,提高操作成功率。
  • 系统可广泛应用于智能制造、物流、服务机器人等多个领域,为机器人学习复杂技能提供数据支撑。
  • 新一代视触觉传感器(如DM-TacW2、DM-TacX、DM-TacF)具备:
    • 更大的感知面积(提升55%)
    • 更小的厚度(减少20%)
    • 超高分辨率与六维力输出
    • 支持IP65以上的防尘防水等级
    • 微米级纹理识别,适用于精密检测与材料分类

战略布局:“3D”战略与DaaS/VTLA模型

  • 戴盟机器人提出“3D”战略,涵盖:
    • Device(视触觉硬件设备)
    • Data(多模态交互数据)
    • Deployment(场景化部署)
  • 通过DaaS(Data as a Service)模式,提供可复用的高质量操作数据。
  • VTLA(Vision-Tactile-Language-Action)模型将视觉、触觉、语言与动作深度融合,构建端到端的操作智能。

合作与未来展望

  • 戴盟机器人与DeepMind展开合作,借助其在AI领域的深厚积累,加速触觉数据的智能解析与模型训练。
  • 此次技术突破将推动机器人从模仿学习自主泛化能力演进。
  • 公司计划在年内继续发布“以人为中心”的穿戴式遥操作设备,进一步拓展视触觉产品生态。
  • 自2023年8月正式运营以来,戴盟已完成数亿元级融资,投资人包括联想创投、招商局创投、金鼎资本等,显示出资本市场对其技术路径与商业前景的高度认可。

此次DM-EXton2的发布,标志着机器人在触觉感知和灵巧操作领域的基础设施迈入新阶段,为实现通用化、自主化操作提供了关键支持。