2026年将是AI服务器系统级升级的关键窗口期。摩根士丹利在最新研报中称,AI服务器硬件正在经历一场由GPU和ASIC驱动的重大设计升级。英伟达即将推出的GB300、Vera Rubin平台和Kyber架构,以及AMD的Helios服务器机架项目,都将带来更高的计算能力和机柜密度。
与之匹配的,将是更有效的电源解决方案、标配的液冷散热方案以及更高要求的PCB和高速互联。这场系统级升级,也将让2026年的AI服务器迎来“不可估量的贵”。
AI服务器需求持续上升。大摩预测,仅英伟达平台,AI服务器机柜的需求将从2025年的约2.8万台,在2026年跃升至至少6万台,实现超过一倍的增长。AMD的Helios服务器机架项目(基于MI400系列)也获得良好进展,进一步加剧市场对先进AI硬件的需求。
当前,英伟达Blackwell平台,特别是GB200芯片,是AI服务器市场的核心驱动力。2026年,AI硬件将从H100/H200时代转向NVIDIA的GB200/300及后续Vera Rubin(VR系列)平台所驱动的新周期。
芯片功率不断突破上限。从H100的700W TDP,到B200的1000W,再到GB200的1200W,直至2026年下半年登场的Vera Rubin(VR200)平台,其GPU*TDP将飙升至2300W,而2026年末的VR200 NVL44 CPX更是高达3700W。
随着GPU功耗逼近4kW,传统风冷方案彻底失效,液冷成为唯一可行路径。英伟达已在GB200平台中将液冷作为标准配置,并与主要OEM厂商联合开发定制化冷板接口,确保热量高效传导至冷却回路。
供电系统也面临重构。主流服务器厂商正从12V VRM向48V直流母线迁移,以减少转换损耗并提升电源响应速度。这些变化意味着未来的AI数据中心将成为集电力、冷却、信号传输于一体的复杂工程系统,其建设成本与运维难度将显著上升。
从交付主体看,鸿海、广达、纬创、纬颖四家具备NVIDIA Certified Systems认证资质的ODM厂商,构成当前GB200/GB300整机柜的主要供应方。其中,鸿海为首批完成GB200及GB300整机柜量产交付的厂商。
鸿海第三季度AI服务器机柜出货季增幅度高达300%。整体来看,鸿海2025年AI服务器收入预计将超过1万亿新台币,占据40%的市场份额。管理层预计GB200与GB300不会出现重大过渡问题,GB300将在2025年下半年主导出货。
近期,广达、纬创及纬颖11月营收齐创单月历史新高。广达、纬颖营收分别达1929.47亿元及968.85亿元新台币,环比增幅分别为11.4%和6.2%。纬创11月合并营收达2806.24亿元新台币,环比增51.6%,同比增幅高达194.6%。
大摩预计,11月单月GB200出货量为5500柜,较10月成长29%。其中广达出货1000-1100柜、纬创1200-1300柜、鸿海约2600柜。
从2025年度GB200、GB300机架服务器各ODM厂出货的市场占比看,鸿海占52%;纬创约占21%;广达占约19%。就产品别来看,GB200占比高达81%,GB300约19%。
分析预期,随着英伟达新款GB300架构AI服务器进入出货旺季,三家厂商本季业绩有望齐创新高,推动全年营收交出至少年增五成以上的成绩。
2026年下半年,Vera Rubin系列将出货,其电源、散热设计均与GB系列不同,这对零组件厂是重新洗牌的机会,也带动整个产业链升级。
随着AI工作负载增长,数据中心功率需求激增。以搭载NVIDIA GB200 NVL72或GB300 NVL72的设备为例,需配备多达8个电源架为MGX计算及交换机架供电。若沿用54V直流配电,Kyber电源架将占用高达64U机架空间,导致计算设备无安装空间。
NVIDIA在2025年GTC大会上展示的800V边车方案,可在单个Kyber机架内为576个Rubin Ultra GPU供电;另一种替代方案是为每个计算机架配置专用电源架。
传统的54V机架内配电系统已无法满足现代AI工厂中兆瓦级机架的供电需求。英伟达正通过下一代Kyber平台,将其电源供应策略提升至全新战略高度,意图定义未来AI工厂的标准。
英伟达的AI服务器电源战略“Kyber”双线推进,量产目标设定在2026年底前,早于市场普遍预期的2027年。
据天风国际证券分析师郭明錤分析,Kyber项目的参考设计范畴已扩展至整个数据中心的供电与基础设施,包括800 VDC/HVDC配电和固态变压器(SST)的应用。自Kyber世代起,电源架构的重要性在英伟达内部已提升至与半导体同等的战略地位。
大摩预测,到2027年,为Rubin Ultra机柜(采用Kyber架构)设计的电源解决方案,其单机柜价值将是当前GB200服务器机柜的10倍以上。到2027年,AI服务器机柜中每瓦功耗对应的电源方案价值也将比现阶段翻倍。
随着CPU和GPU性能提升,功耗激增,散热成本上涨趋势明显。英伟达液冷技术路线呈现渐进式升级特征:早期GB200采用单板单向冷板+风冷组合方案;新一代GB300全面升级为全冷板液冷方案,可稳定应对1400瓦散热需求。
面向未来Rubin芯片的超高功耗场景,英伟达已布局两相冷板液冷与静默式(浸没式)液冷耦合方案。
英伟达GB300 NVL72机架级AI系统,单单是液冷散热组件的价值就高达49860美元(约合人民币近36万元),比GB200 NVL72系统高约20%。
下一代Vera Rubin NVL144平台的散热总价将更高。随着计算托架和交换机托架冷却需求增加,预计每个机柜的冷却组件总价值将增长17%,达到约55710美元(约合人民币近40万元),其中为交换机托架设计的冷却模块价值预计显著增长67%。
AI服务器硬件升级推动高端PCB需求激增。每一次GPU迭代,都伴随对PCB层数、材料等级和尺寸的更高要求。
当前,服务器功能增强和算力提升带动BMC板卡、网卡以及PoE卡上的PCB用量增加。PCB层数正向更高端发展,目前普遍已达44至46层。
Prismark数据显示,2025Q1全球PCB市场规模同比增长6.8%,其中高端HDI板和18层以上高多层板需求增速分别达14.2%和18.5%。头部厂商如东山精密、沪电股份正将新增产能倾斜至18层以上的高端品类。
PCB产品迭代不仅是层级提升,更是价格翻倍式增长。例如,从400G升级到800G或1.6T,PCB价格不是增长20%或30%,而是成倍增长。
沪电股份表示,AI是当前确定性最强的需求。海外资本开支预期显示云计算厂商正争相布局AI基础设施,2025年META、谷歌、微软、亚马逊资本开支分别同比增加60%、43%、45%、20%。AI服务器从以往的14~24层提升至20~30层,交换机提升至38~46层,部分产品引入HDI工艺,行业附加值有望增长。
全球主要八大CSPs资本支出持续扩大,为“变贵”的AI服务器提供需求支撑。TrendForce集邦咨询将2025年全球八大主要CSPs资本支出总额年增率从61%上修至65%。预期2026年CSPs仍将维持积极投资节奏,合计资本支出将进一步推升至6,000亿美元以上,年增达40%,展现AI基础建设的长期成长潜能。
八大CSPs包含谷歌、AWS、Meta、微软、Oracle、腾讯、阿里、百度。谷歌将2025年资本支出上调至910-930亿美元;Meta上修至700-720亿美元,并指出2026年还将显著成长;Amazon调升2025年资本支出预估至1250亿美元。
2026年,AI服务器将因GPU功耗突破、液冷、供电、PCB的全链条升级,以及代工厂产能与成本同步提升而变得更为昂贵;同时,CSPs的持续投入为这一轮高价升级提供了坚实的需求基础。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



