AI数据中心电力瓶颈凸显 液冷技术成节能关键解法

2024年中国数据中心总耗电量达1660亿度,约占全国总耗电量的1.68%,预计2030年占比将超5%,2035年超13%。算力扩张与电力约束失衡正重塑产业发展逻辑。

当前AI数据中心高能耗核心瓶颈有三:一是AI芯片设计与实际任务脱节,主流架构适配高密度并行计算,但大模型训练常出现稀疏计算,导致大量算力闲置而电能持续消耗;多模态任务切换效率低,额外增加功耗。二是算力需求增速远超硬件迭代节奏,2024年我国智能算力增速达74.1%,DeepSeek-R1大模型日活超2200万,需约50个大型数据中心支撑;“十万卡集群”成为科技巨头新标,单颗英伟达H100 GPU年耗电约3740度,10万颗仅GPU单元年耗电即超3.74亿度。三是数据中心非计算设备耗电占比高,冷却系统占总耗电量38%以上,部分场景高达50%;2025年我国数据中心平均电能利用效率(PUE)约为1.45,较世界先进水平(1.1–1.2)仍有差距,制冷系统能耗占27%,是主要节能突破口。

国家发改委《数据中心绿色低碳发展专项行动计划》明确,到2025年底国家枢纽节点新建数据中心绿电占比须超80%,重点发展绿电直连、高效冷却、IT负载动态调整及算-电-热协同四项技术。其中液冷技术被业内普遍视为关键解法。

液冷技术分冷板式、浸没式与喷淋式三类:冷板式通过定制化金属冷板贴合CPU/GPU等发热核心,内部设微通道实现冷却液高速循环导热,改造成本可控,为当前最普及方案;浸没式将服务器整体浸入绝缘冷却液,散热效率最高,适用于超高热密度场景;喷淋式直接向发热元件喷淋冷却液,路径短、效率高,但商用落地尚不明朗。目前液冷在数据中心整体普及率约10%。

英伟达Vera Rubin NVL72与AMD MI450均采用“冷板贴合+封闭液冷循环”架构:冷板与GPU芯片核心发热区接触面积达95%以上,优化压力分布与冷却液流速;英特尔亦主推冷板式液冷,通过微通道与导热界面材料提升热传导效率,兼容现有架构。国内厂商中,曙光数创2021至2023年上半年液冷基础设施市场份额达56%,居首位;英维克全栈液冷链条截至2025年3月累计交付1.2GW;飞荣达3DVC散热器功耗达1400W,为行业领先水平,已批量供应英伟达、中兴、浪潮;中石科技实现热模组核心零部件及TIM材料批量供应,VC模组加速应用于高速光模块;思泉新材东莞与越南工厂已完成液冷模组量产准备,正研发750W–3000W双相冷板、Manifold及CDU等组件;川环科技液冷管路产品通过美国UL认证,已进入奇鋐、英维克、飞荣达供应链。

全球制造业格局显示,中国制造业增加值自2010年起稳居世界第一,2024年规模连续15年居首,总量大于美国、日本、德国和印度之和。数据中心未来竞争不再单纯比拼规模,而是比拼单位能耗下的有效算力转化效率——既依赖芯片架构对真实场景的精准适配,也依托中国制造业在液冷全链条的规模化制造与快速迭代能力,推动散热效率与部署成本的系统性平衡。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2026 All Rights Reserved
蜀ICP备2024059877号-1