Genesis发布GENE-26.5机器人基础模型,实现高精度双手物理操作

5月6日,Genesis AI发布首个机器人基础模型GENE-26.5,可在真实世界1倍速下完成番茄炒蛋、奶昔制作、实验室移液、魔方求解、线束组装及钢琴弹奏等多领域精细操作任务。该模型具备双手协同、工具使用与多物体交互能力,动作流畅度显著超越此前多数具身智能系统。

GENE-26.5在spatial precision(空间精度)、temporal composition(时间编排)、contact richness(接触丰富度)、contact coordination(接触协同度)及tool-mediated interaction(工具中介交互)五个维度均表现优异。其操作过程中包含类人细节,例如蛋液沾手后主动取抹布擦拭并进行摩挲确认动作。

Genesis AI由卡内基梅隆大学机器人学博士周衔与前Mistral AI多模态模型负责人Théophile Gervet于2024年12月联合创立。2025年7月,公司完成1.05亿美元种子轮融资,由Khosla Ventures和Eclipse联合领投,谷歌前董事长Eric Schmidt、欧洲科技大亨Xavier Niel、法国国家投资银行BPI及红杉中国参投,创硅谷具身智能领域种子轮金额纪录,亦为华人团队在硅谷达成的最大规模种子轮融资。创始团队约20人,平均年龄不足28岁。

为解决体力劳动技能数字化缺失问题,Genesis构建三条并行数据采集路径:第一,自主研发低干扰电磁+触觉融合数据手套,实现高质量、低数量动作捕获;第二,头戴式第一视角摄像头采集真实环境任务多样性数据,属中等质量与中等数量;第三,大规模爬取YouTube等平台教学视频,覆盖海量低质量但高覆盖场景数据。三者共同构成数据质量—数量帕累托前沿。

Genesis自研Genesis Hand 1.0机械手,具备20个自由度、直驱结构与可反向驱动能力,尺寸严格1:1匹配真人手,手掌及指腹覆盖仿生软材料,以复现人手接触物理特性。该设计确保人类采集动作数据与机械执行间保持同构映射,实现“近无损信息传递”,避免因硬件差异导致的动作翻译损耗。

模型架构摒弃传统模块化范式,采用统一联合分布建模方法,将语言、视觉、本体感觉、触觉与动作序列共同纳入流匹配框架,在保留时间维度耦合关系前提下学习跨模态隐式对齐。模型可兼容外部VLM提供语义理解、世界模型提供物理预测,但不依赖任一外部组件。

评估环节依托自研仿真引擎Genesis World,该环境支持光照变化、背景替换、物体属性偏移及场景配置重组,单个数据点对应200套评估设置与超150小时机器人执行时间。全部评估若在真实世界展开需累计2700小时人机交互,仿真将其压缩至可工程化范围。结果显示:预训练数据规模越大,模型在未见新场景中泛化性能越强,验证损失持续下降,呈现与大语言模型相似的Scaling Law特征。

Genesis World后续版本将强化仿真与现实评估结果间的相关性建模。当前全栈系统涵盖自研数据采集设备、仿生硬件、联合分布模型及高保真仿真环境,形成从数据获取到物理执行的闭环控制链。其技术路径旨在推动机器人在开放物理环境中实现类人感知、适应与操作能力,而非依赖预设脚本运行。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2026 All Rights Reserved
京ICP备2025120072号