近日波士顿动力发布了他们的人形机器人最新的成果
Atlas is autonomously moving engine covers between supplier containers and a mobile sequencing dolly. The robot receives as input a list of bin locations to move parts between.
Atlas uses a machine learning (ML) vision model to detect and localize the environment fixtures and individual bins [0:36]. The robot uses a specialized grasping policy and continuously estimates the state of manipulated objects to achieve the task.
There are no prescribed or teleoperated movements; all motions are generated autonomously online. The robot is able to detect and react to changes in the environment (e.g., moving fixtures) and action failures (e.g., failure to insert the cover, tripping, environment collisions [1:24]) using a combination of vision, force, and proprioceptive sensors.
无预编程!无遥操作!可以自动纠错!
从Demo来看,其采用的依然是基于全身轨迹优化的思路,首先利用视觉的分割模型,识别目标的汽车零件,和货架格子的特征点,这都是目前视觉比较成熟的技术,然后根据目标位置进行全身轨迹规划,最终将目标零件放进货架的目标格子中。
该问题可以看成是典型的终端有严格约束的运动规划问题,很大的难点在正确调整汽车零件的位姿使其对准目标格子,并放进对应的格子。
主要技术特点:
1. 视觉系统配置
- 主要传感器位于头部位置
- 能够识别场景中的物体并提取特征点
- 使用分割(segmentation)技术进行物体识别
2. 运动规划模块
- 采用轨迹优化(Trajectory Optimization)和模型预测控制(MPC)的方案
- 具备实时自纠正能力,当物体放置失败时能够自动调整
- 力反馈与重规划(replanning)结合实现闭环控制
- 需要提前建立操作物体的模型
该方案与RoboTwin采用的方案类似,通过自动解析关键功能点、功能轴之间的关系,推理3D空间上的几何约束,最后通过运动规划模块进行轨迹的优化和求解。
技术评估:-
1. 优势
- 在结构化场景下展现出很强的可靠性
- 自纠正能力令人印象深刻
- 已达到L2/L3级别的自主性,具备实际应用潜力
2. 局限性
- 对柔性物体的操作可能存在挑战
- 非端到端方案,依赖预建模
- 在非结构化场景中的表现有待验证
行业影响:
- 展示了具身智能领域的实际落地能力
- 成熟的应用场景有望吸引更多资本投入
- 循序渐进的发展路径类似自动驾驶行业
这些进展表明波士顿动力在机器人自适应操作领域取得了显著突破,可以说真正让人看到具身智能落地的曙光!
笔者认为即便当前波士顿动力的方案并非端到端的神经网络控制,而是感知决策控制分层的方案,其展现出的强大能力,依然能够给予具身智能行业的从业者以巨大的信心!黑猫白猫能抓耗子的就是好猫,黑盒白盒能够落地就是好方案!


