叠完衣服就去分拣包裹,现在连洗碗机前都出现了它的身影——Figure 02机器人正一步步把“家务全能王”的设定照进现实。当然,前提是你家得先有一台洗碗机。
和之前叠毛巾、分拣快递用的是同一个Helix架构,没有更换算法,也没上特殊硬件,纯粹靠“喂”进新数据,它就掌握了这项新技能。
网友们一看,乐了,但转头就开始操心起细节问题:
它刚碰完油腻的盘子,会不会转身就去叠我的白衬衫?它知道自己该“洗手”吗?
别说,还真有不少人跟着追问机器人有没有“清洁意识”,虽然听起来像玩笑,但也说明大家已经开始用“类人”标准去衡量它的行为了。
回到正题,这可不是简单地把盘子丢进机器那么简单。三个月前,Figure 02在物流场景中展示了长达一小时的包裹分拣能力,从识别、抓取到翻转、投递,动作流畅自然,速度和精度几乎追平人类。
上个月,它又秀了一波叠衣服的绝活,布料柔软、形态不定,但它依然能精准抓握、对折、码放,看得人直呼“比我还会过日子”。
如今,它又把目标对准了厨房——将餐具准确无误地装入洗碗机。

别小看这个动作,实际操作中挑战重重。盘子堆叠、碗里残留食物、玻璃杯倾斜易滑,每一步都需要毫米级的控制力。
它得从杂乱无章的餐具堆里精准分离出单个物品,调整姿态,甚至需要双臂协作传递脆弱物件。洗碗机内部空间紧凑,碗架容错率极低,稍有偏差就放不进去。
更难的是,每次任务的起始状态都不同:餐具种类多变、摆放随机、还可能中途打滑或碰撞。机器人必须实时感知、动态调整,确保操作稳定可靠。
而这一切,依然依托于Figure与OpenAI合作终止后推出的首个通用控制架构——Helix。
这是一个端到端的“视觉-语言-动作”模型(VLA),让机器人能像人一样“看到”环境、“理解”指令,并“执行”动作。它由两个深度耦合的系统组成,通过统一神经网络权重,实现跨任务的通用操控。
在洗碗任务中,Helix学会了:从堆叠中分离盘子并有序摆放;单手抓杯、转角、换手、轻放;根据初始状态自主规划路径;遇到失误能快速恢复而不崩溃。
更惊人的是,同一套系统,既能叠衣服,又能分包裹,还能装洗碗机,完全不需要重新设计算法。只要数据够多,技能就能持续扩展。

这意味着,Figure机器人正从“单一功能机”向“可扩展智能体”跃迁。未来的它,或许真能承包整个家务链条——只要你愿意给它“学习”的机会。
