英伟达CES发布Rubin平台及物理AI生态

1月6日至9日,全球消费电子展(CES)在拉斯维加斯举行。2026年CES聚焦于“AI具身化”,英伟达未发布消费级显卡,而是提前推出下一代AI芯片平台“Rubin”,打破其通常在3月GTC大会发布新品的传统。

当地时间1月5日,英伟达CEO黄仁勋在CES上发布新一代Rubin平台。该平台在推理成本和训练效率方面显著提升,已全面投产,计划下半年发货。

Rubin代号源自2025年3月GTC大会上预告的“Vera Rubin”超级芯片,此次为系统性发布,成为英伟达最新GPU代号。

黄仁勋表示:“Rubin的到来正逢其时。无论是训练还是推理,AI对计算的需求都在急剧攀升。我们坚持每年推出新一代AI超级计算机,通过6颗全新芯片的极致协同设计,Rubin正在向AI的下一个前沿迈出巨大一步。”

Rubin平台采用极端协同设计理念,整合6颗芯片:NVIDIA Vera CPU、Rubin GPU、NVLink 6交换芯片、ConnectX-9 SuperNIC、BlueField-4 DPU以及Spectrum-6以太网交换芯片,覆盖计算、网络、存储与安全多个层级。

相比前代Blackwell架构,Rubin加速器在AI训练性能上提升3.5倍,运行性能提升5倍,配备88核新款CPU。相较Blackwell平台,Rubin平台实现推理token成本最高降低10倍,训练MoE模型所需GPU数量减少4倍。

GPU是显卡的核心计算芯片,显卡则为包含GPU、显存、供电、散热与视频输出接口的完整硬件设备。

在生态层面,AWS、Microsoft、Google、OpenAI、Anthropic、Meta、xAI、CoreWeave等被列入Rubin首批采用名单。

英伟达高管解释,Rubin提前亮相是因为构成Vera Rubin平台的6颗芯片已全部到位,相关系统正在运行真实应用负载并取得积极结果。提前披露旨在向生态伙伴提供工程样品,便于后续部署准备。量产爬坡仍按原计划于下半年推进。

黄仁勋还发布了开源模型、AI存储、物理AI等系列产品,展现英伟达全栈AI布局,释放AI重心从“训练规模”转向“推理系统”的信号。

黄仁勋特别强调物理AI,并提出AI演进四阶段:感知AI(Perception)、生成AI(Generation)、代理AI(Agentic)、物理AI(Physical)。“当模型能够理解质量、摩擦、惯性、动量守恒,AI才真正走出屏幕。”

物理AI不同于传统生成式AI,不仅限于文本、图像或代码,而是能理解物理世界规律并在现实中执行任务的智能系统。此类模型通常先在高度逼真的虚拟环境中通过合成数据训练,再部署至机器人、自动驾驶汽车或工业设备。

黄仁勋表示:“AI已经不再是一次性问答的聊天机器人,而是能够理解物理世界、进行长期推理、使用工具完成真实工作,并同时保有短期和长期记忆的智能协作者。”

CES官方指出,“多年来AI一直是CES的一部分,但2026年它已然成为无法忽视的焦点”。这反映科技产业的深刻转折:AI进入硬件与真实场景融合阶段。

黄仁勋在48小时内参与四场活动,分别与西门子探讨工业AI、与联想推进混合AI、与AMD和英特尔共话生态协同,表明AI价值由场景而非算力定义。

面向机器人领域,英伟达发布Cosmos与GR00T系列开源模型,用于机器人学习、推理与动作规划。“机器人领域的ChatGPT时刻已经到来,”黄仁勋称,“能够理解现实世界、进行推理并规划行动的物理AI模型,正在解锁全新的应用场景。英伟达覆盖Jetson、CUDA、Omniverse以及开源物理AI模型的完整技术栈,正在赋能全球合作伙伴,通过AI驱动的机器人重塑各个行业。”

自动驾驶被视作物理AI首个大规模应用场景。此类系统需理解现实世界、做出决策并执行动作,对安全性、仿真和数据要求极高。

一位业内人士对北京商报记者表示,2026年将出现三大趋势:一是“模型小型化”,特定任务可媲美云端大模型;二是“交互多模态”,语音、视觉、手势、脑机接口融合为自然交互方式;三是“服务订阅化”,硬件将便宜甚至免费,AI服务按月收费成为主流商业模式。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2026 All Rights Reserved
蜀ICP备2024059877号-1