2025年10月19日,全球机器人领域两大顶级学术盛会之一的IEEE/RSJ智能机器人与系统国际会议(IROS 2025)在杭州国际博览中心正式启幕。这场以 “人机协作前沿” 为核心主题的盛会,吸引了来自69个国家和地区的7000余名专家、学者及企业代表,汇聚了近200家机器人领军企业,共同探索人工智能与机器人技术的深度融合创新。
这是IROS自2006年北京举办后,时隔近二十年再次来到中国大陆,印证了中国机器人研究实力的飞速提升。而以东道主身份亮相的中国机器人产业,则以一场具身智能技术的全景盛宴,回应了“人机协作前沿”的大会主题。从仿生灵动的人形机器人,到深入千行百业的工业解决方案,再到决定性能边界的核心零部件,中国企业们共同勾勒出一幅 “软硬融合、开源协同、垂直深耕” 的鲜明产业图景。
核心要点
·开源生态成为技术普及的加速器
·前沿技术与商业化落地双轮驱动
·产业巨头以场景与数据赋能行业
·全链路构筑物理世界理解基石
·全栈自研与垂直整合构建核心壁垒
·“感知-决策-控制”闭环驱动能力持续进化
01开源生态加速具身智能普及
案例分析:傅利叶N1 开源人形机器人、Fourier Nexus 开源平台。
在具身智能快速发展的时代,傅利叶持续推进“硬件开放+算法共享+数据互通”的开源战略,通过Fourier Nexus 开源平台搭建全球协作体系。目前傅利叶平台已开放涵盖机器人结构设计、执行器控制、运动规划算法及多模态感知接口等关键模块,为科研、教育与开发者社区提供完整的实验与研发基础。
在“完全开源”的理念下,傅利叶的科研成果还与全球协作并行。目前,基于傅利叶GR系列平台的多篇研究论文已成功发表于相关权威期刊,标志着傅利叶开源技术体系在学术研究与工程应用两端的强大支撑能力。
核心技术:N1的开源不仅仅是理念,其开放了包括完整的物料清单(BOM)、可直接加工的结构图纸、详细的装配指南以及基础操作软件代码。这种深度的开放策略,旨在让全球开发者能够在最短时间内完成对N1的完整复刻,极大降低了硬件本体的研发门槛。
具身应用:N1在研发阶段经历了长周期、高强度的测试,累计完成超过1000小时的户外复杂地形测试。这确保了机器人能够在15°-20°的斜坡上稳定通行,并能攀爬20厘米高的楼梯,展现了其在非结构化环境下的运动适应能力。
02技术与商业化双线突破
案例分析:星尘智能半身机器人Astribot S1-U、AI系统DuoCore
星尘智能展示了其在“本体-遥操-模型”全栈技术上的升级,其核心亮点包括绳驱传动技术、超远程遥操作系统以及AI系统DuoCore。
作为全球首个实现该技术在人形机器人领域量产的团队,星尘智能秉持“不是让AI适配机器人,而是让机器人原生适配AI”的观念,打造AI系统DuoCore,创造出一个最适合未来需求的AI机器人。其成功量产了绳驱传动的AI机器人,与传统刚性机器人形成差异化优势。
核心技术:绳驱方案能“透明”地将电机力传递到末端,实现精确的力感反馈。这不仅让机器人具备“盲人开门”般的精细力感知能力,其被动柔顺性也使其在与人交互时更具安全性,即使“敲桌子、打鼓”也不易损坏自身。
数据引擎:现场,星尘智能开放了“人人可上手”的遥操作体验,直观展示了其系统的鲁棒性与安全性。然而,RUI更核心的价值在于作为AI训练的数据引擎。它能以第一人称视角高效收集高质量的多维操作数据,数采效率远超行业,极大地加速了AI模型的迭代。
03场景方强势入局
案例分析:美团机器人“全家桶”
在2025年杭州国际智能机器人与系统大会(IROS 2025)上,美团机器人研究院通过其学术年会,集中展示了在低空物流与具身智能领域从技术突破到商业化验证的最新进展。
据美团机器人研究院相关负责人介绍,研究院自2022年成立以来,致力于搭建连接产业与学术的开放科研平台,通过真实场景反哺前沿研究,让科技成果更快走向应用。近一年来,研究院不断加快创新步伐,在低空物流、具身智能等核心赛道上持续加码,坚持推动前沿的学术探索高效转化为可落地的产业价值。
核心战略:通过升级云端视觉大模型,提升对风筝、气球、吊车等复杂小目标的识别能力。战略定位已升级为“零售+科技”,零售是舞台,科技是让舞台更大、更高效的工具。通过战投部门投资了宇树科技、自变量机器人、星海图等一批机器人企业,构建“盟友圈”。
应用落地:相关成果通过大量测试验证后,目前已在公园等复杂配送场景中实现应用。还通过第三届低空经济智能飞行管理挑战赛,吸引了来自全球120支高校队伍参赛,并首次迎来全海外队伍,体现了中国低空经济的全球影响力。
04“全模态”具身数据全链路解决方案
案例分析:零次方轮臂人形机器人ZERITH H1
零次方今年5月底全新推出的轮臂人形机器人ZERITH H1,该产品采用“拟人”结构,搭配7轴高精度机械臂,臂展达1.8m,下可触达地面,上至2m,从而实现全身超大灵活操作空间。
零次方策略清晰地专注于商业服务场景,如酒店、餐厅等,试图通过垂直场景“单点打穿”,实现能力的网状迁移。据悉,公司已获得数千万元订单,并计划在2025年交付500台机器人以实现量产落地。
核心技术:为解决具身智能模型训练中普遍面临的“数据模态缺失”问题,同时基于自研具身数据管理平台用于数据全流程管理,推出“全模态”具身数据全链路解决方案,采用“引导式”数据采集工作流,从而帮助用户快速掌握复杂任务数据采集能力,确保数据收集质量、提升数据采集效率。
模型迭代:方案集成了训练可视化工具,支持对模型训练全过程进行记录、监控和数据分析,帮助开发者科学调参,高效迭代自己的具身智能模型。
05全栈自研构筑技术闭环
案例分析:魔法原子魔法原子以“全家族”(双足人形机器人MagicBot Z1、轮式MagicDog-W、工业级MagicDog Y1)
魔法原子公司已实现高达90%的硬件自研率,覆盖全关节模组、灵巧手、减速器等关键部件,并自研通用具身智能大模型,完成了软硬件双向驱动的技术创新性突破。
在生态建设与商业化方面,魔法原子于2025年3月启动了“千景共创计划”,目标是联合1000家合作伙伴,共同打造1000个人形机器人落地应用场景。
核心技术:在于构建了“全栈自研”的研发体系,其硬件自研率高达90%,覆盖了关节模组、灵巧手、减速器等核心零部件。同时,软件层面也自主研发了通用具身智能系统。这一体系旨在降低供应链风险与制造成本,为量产和商业化落地奠定基础。
数据驱动:魔法原子与战略合作伙伴合作,持续采集生产环境中的真实数据,据称已累计形成数百万条高价值训练样本。这些数据用于优化其自研的“原子万象”大模型,该模型采用快慢双系统的端到端技术路线,旨在提升机器人在复杂场景下的理解和任务执行能力。
06视觉与触觉的融合进化
在IROS 2025的展台上,当机器人灵巧地抓取物件或在复杂环境中自主导航时,其背后是一场关于感知的静默革命。机器人正从“看得见”向“看得懂”、“摸得着”向“摸得准”演进,而引领这场感知革命的,正是那些为机器人打造“超级感官”的传感技术企业。
RoboSense(速腾聚创):发布的AC2视觉系统,被定位为“机器人操作之眼”。它不再是简单的传感器堆叠,而是将固态面阵dToF传感器、RGB双目相机和IMU(惯性测量单元)深度融合。这种一体化设计使其能输出融合或独立的深度、图像与运动数据,形成了一个连贯的感知场。
动微视觉:核心技术源于仿生学,其事件相机(Event Camera)的工作原理模仿了生物的视网膜。这种机制带来了巨大优势:微秒级的延迟、极高的时间分辨率,以及超过130dB的高动态范围。意味着在强光、弱光或快速运动的极端场景下,机器人不会像传统相机那样出现画面模糊或过曝,能始终保持“眼疾手快”。
特别声明:本文为合作媒体授权DoNews专栏转载,文章版权归原作者及原出处所有。文章系作者个人观点,不代表DoNews专栏的立场,转载请联系原作者及原出处获取授权。(有任何疑问都请联系idonews@donews.com)



