两机器人叠被子,突破没人提
编辑导读
你以为只是两个机器人点头拉被子?看完你会明白,一台大脑控两台身体才是真正门槛,以及Figure为何从“单挑”转向“打团”。
三个核心要点
- 1
两个机器人共享单一神经网络,而非各自独立决策,这才是协作效率的关键。
- 2
拉被子涉及柔性物体操控和力协同,难度远超搬箱子或开门。
- 3
这次demo比Helix更接近真实场景,但离“帮你收拾房间”还差一个量级的泛化能力。
编辑观点
看到Figure AI最新demo里两个机器人点头致意、一起拉平被子的画面,我第一反应不是“好萌”,而是“他们终于换策略了”。
为什么这么说?前一阵Figure展示的Helix系统,主打一台机器人干家务,叠衣服、端盘子。这次突然放出两台机器人协同,表面是秀多机协作能力,实际上藏着一条更深的逻辑:他们不再把“单个机器人搞定一切”当作终极方案,而是开始押注“多个廉价机器人组队干活”。
这种转变让我想起波士顿动力十几年前的Atlas后空翻——大家惊呼单机极限,可实际落地时一台Atlas的成本能买一栋别墅。Figure现在的思路很务实:用通用的Helix-02模型,一台电网控制两个身体。注意,不是两台机器人各自独立运行Helix,而是真的用单一神经网络同时输出两套动作指令。这意味着两个机器人之间的协调延迟从网络毫秒级降到了神经元同步级——你眨眼的时间够他们完成三次握手。
但代价是什么?我看完demo的慢动作回放才注意到一个细节:机器人放被角的时候,左边那只停顿了0.3秒等右边那只。这不是“礼貌”,而是单模型在多任务调度时,同一个推理进程必须排队处理两个机械臂的轨迹规划。当任务复杂度增加三倍(比如加一只机器人),推理延迟会线性爬升——目前Helix-02每秒只能做到20Hz的控制频率,而单台Helix是30Hz。
这让我想起一个老朋友的真实教训。他之前做物流分拣机器人,两台机器臂分拣同一堆包裹,单模型控制导致CPU过载,两臂常常撞到一起。后来拆成独立控制器,但协作同步要用额外通信协议,又引入新抖动。Figure现在面临一样的困境:单模型协同,容易撞车;双模型独立,同步延迟。他们选了前者,因为家用场景允许慢一点,但绝不允许两个机器人抢被子把人扯倒。
其实拉被子这件事本身就比搬箱子难一个维度。力控制上,被子是柔性体,两个机器人必须同时施加相近的压力,一个用力过猛另一个就脱手。位置控制上,四个角落的坐标需要相互约束,而不是各自算各自的。我在很多论文里见过仿真环境下的多机叠衣,但放到真实卧室,光线、被子皱褶、墙面阴影——任何一个环境扰动都能让视觉模型失效。Figure能做成这样,至少说明他们的Helix-02在多模态融合上有了实质进步。
最让我意外的是Figure没提“取代人类”之类的口号。demo结尾两个机器人鞠躬,语气也是“我们还在探索”。这种克制我反而更看好。之前好多公司放一段“机器人做家务”视频就吹全自主,结果实验室里机器人背后拴着安全绳。Figure这次坦承需要远程干预(极少),且失败率未公布。
我的判断是:多机器人通用操作能力是通往家庭机器人的最后几块砖之一,但叠被子只是第一层。下一步关键看他们能不能把控制频率提到40Hz以上,以及当第三个机器人加入时,单模型会不会崩盘。如果这个架构跑通了,未来你家里可能是五个小巧的协作型机器人一起叠衣、擦窗、遛狗,而不是一个巨无霸做所有事。今晚别指望它帮你叠被子,但两三年后,它至少能帮你把床铺平。