华为发布AI容器技术:极大提高算力资源

DoNews11月21日消息,据科创板日报,华为今日推出全新的 Flex:ai AI 容器技术,核心能力是把一张 GPU 或 NPU 的算力切分成多份虚拟算力单元,粒度精细到约 10%。这意味着一张卡可以同时承载多个 AI 工作负载,真正做到“多任务并行”。

更关键的是,Flex:ai 还能把集群里不同节点的空闲 XPU 算力聚合起来,形成更灵活的“共享算力池”。对企业来说,算力利用率会显著提升,模型训练和推理的资源调度也更高效。据悉.该技术将同步开源至魔擎社区,进一步降低企业与开发者的使用门槛,让算力资源像云端存储一样可随取随用。

华为这步棋的意义不只在“让一张卡当多张卡用”,更在于它把算力从“固定资产”变成“可分配资源”,这对国内当前算力紧缺的背景来说非常关键。Flex:ai 若能规模落地,等于是直接提高社会整体算力生产效率。这在 AI 大模型全面爆发的 2025 年,无疑是一种底层竞争力提升。

 

华为发布AI容器技术:极大提高算力资源
扫描二维码查看原文
分享自DoNews
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1