蚂蚁集团孵化的具身智能新锐企业——灵波科技,近日正式宣布开源其自主研发的具身大模型 LingBot-VLA。此举不仅标志着该模型在技术性能上获得业界认可,更通过开放完整的后训练代码体系,大幅降低具身智能领域的进入门槛,为开发者社区注入强劲动能。
性能表现:跨平台泛化与高精度操控能力突出
LingBot-VLA 在真实世界任务和仿真环境中均展现出卓越的鲁棒性与适应性:
在真实场景测试方面,该模型于上海交通大学推出的 GM-100 基准评测中,在三种不同物理结构的机器人平台上实现了 15.7% 的跨本体泛化平均成功率,显著优于当前主流模型 Pi0.5 的 13.0% 表现。
进一步引入深度感知信息后,LingBot-VLA 的任务完成率跃升至 17.3%,凸显其在空间理解方面的优化成效。
在 RoboTwin2.0 仿真评测平台中,面对复杂光照变化、随机杂物干扰等挑战性条件,LingBot-VLA 的操作成功率仍比 Pi0.5 高出 9.92%,稳居同类模型前列。
技术内核:高效可扩展的后训练工具链
除了亮眼的性能指标,LingBot-VLA 的核心竞争力还体现在其高度优化的训练架构与迁移效率:
依托大规模预训练基础,该模型在下游任务微调阶段仅需少量样本即可超越现有主流方案,极大压缩了数据采集与标注成本。
灵波科技团队同步构建了一套高吞吐训练工具链,在标准 8 卡 GPU 环境下,单卡每秒可处理高达 261 个训练样本,整体训练效率较 StarVLA、OpenPI 等主流框架提升 1.5 至 2.8 倍,显著加速模型迭代周期。
开源生态:全栈资源无缝对接开发者需求
本次开源覆盖模型、代码、数据与文档四大维度,形成完整闭环:
模型权重已同步发布于 Hugging Face 与阿里云魔搭(ModelScope)平台,便于全球开发者一键调用;
GitHub 代码仓库全面开放,包含从原始数据清洗、高效微调策略到自动化评估脚本在内的全套工程实现;
此外,灵波科技还一并公开了 GM-100 数据集及详尽的技术白皮书,为学术研究与工业落地提供坚实支撑。
随着 LingBot-VLA 的全面开源,具身智能领域迎来一个真正兼顾高性能、低门槛与高效率的开源范本,有望推动机器人智能从实验室原型加速迈向千行百业的真实应用场景。
