2026年1月29日,宇树科技宣布开源面向人形机器人操作的视觉-语言-动作(VLA)大模型UnifoLM-VLA-0。该模型基于Qwen2.5-VL-7B,在约340小时真机数据上持续预训练,融合2D/3D空间感知与动力学建模,支持单策略完成12类复杂操作任务。真机验证显示其具备强鲁棒性与泛化能力,空间理解性能显著优于基线模型。项目代码及主页已同步公开。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
2026年1月29日,宇树科技宣布开源面向人形机器人操作的视觉-语言-动作(VLA)大模型UnifoLM-VLA-0。该模型基于Qwen2.5-VL-7B,在约340小时真机数据上持续预训练,融合2D/3D空间感知与动力学建模,支持单策略完成12类复杂操作任务。真机验证显示其具备强鲁棒性与泛化能力,空间理解性能显著优于基线模型。项目代码及主页已同步公开。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。