高通于当地时间10月27日宣布推出面向数据中心的下一代AI推理优化解决方案,包括基于Qualcomm AI200和AI250芯片的加速卡及机架级系统。
根据规划,AI200和AI250预计将分别于2026年和2027年实现商用。高通计划每年更新一次数据中心路线图,专注提升AI推理性能、能效及总拥有成本(TCO)。
受此消息推动,当日高通股价盘中涨幅一度达20%,最终收盘上涨11.09%。
此次推出的Qualcomm AI200为专用机架级AI推理解决方案,支持大语言模型(LLM)和多模态模型(LMM)推理,单张加速卡配备768 GB LPDDR内存。
Qualcomm AI250将首发采用近存计算(Near-Memory Computing)架构,实现超10倍有效内存带宽提升,降低功耗并提高AI推理效率,支持解耦式AI推理与高效硬件资源利用。
两款机架级解决方案均采用直接液冷散热,整机架功耗为160千瓦,支持PCIe纵向扩展和以太网横向扩展,并具备机密计算能力以保障AI工作负载安全。
与主流AI加速芯片采用HBM不同,高通方案使用成本更低的LPDDR内存,契合其降低TCO的战略方向。
高通总裁兼CEO Cristiano Amon此前指出,AI推理规模扩大使云服务商构建专用推理集群,注重每美元和每瓦特tokens数,市场向定制Arm兼容CPU转变,为高通提供切入机会。
公司正推进收购Alphawave IP Group plc,以增强在高速有线连接方面的技术能力,补充Oryon CPU与Hexagon NPU平台。
高通同时宣布与沙特国家级AI公司HUMAIN合作,部署先进的AI基础设施,打造全球首个全面优化的边缘到云端混合人工智能体系。
HUMAIN计划自2026年起部署200兆瓦的Qualcomm AI200和AI250机架式解决方案,该合作为5月签署备忘录后的正式落地。
目前高通官网数据中心产品矩阵已涵盖Qualcomm Cloud AI 100 Ultra、AI200、AI250、人工智能推理套件及服务器CPU五大类别。
高通曾于2017年推出基于Arm架构的Centriq 2400服务器处理器进军数据中心,但因生态不成熟而未获成功,最终解散Falkor团队。
2021年3月,高通完成对Nuvia公司的14亿美元收购,强化数据中心CPU研发能力。
IPnest CEO Eric Esteve表示,Alphawave在高端接口IP领域领先,其SerDes技术对构建高性能计算互连至关重要,可满足AI系统需求。
DIGITIMES分析师陈辰妃指出,当前服务器市场仍由Intel x86主导,Arm生态早期发展受限导致高通前次尝试失败。
相较此前,高通此次在软硬件能力上已有显著补强,并采取差异化技术路径。
业界普遍认为,AI推理市场规模将超过训练市场,且允许多样化芯片架构参与竞争,为非GPU方案提供发展空间。
尽管推出自有AI推理产品,高通仍与英伟达保持合作。今年5月,高通出现在英伟达NVIDIA NVLink Fusion合作伙伴名单中。
生态建设是AI芯片落地关键。英伟达凭借CUDA工具链建立长期优势,新进入者面临软件生态挑战。
AI推理场景对定制化需求包容度较高,为后来者提供突破可能。
高通基于NPU架构的方案在数据中心的实际性能表现仍有待验证,其与HUMAIN的合作项目将成为重要样板工程。
Amon表示,希望通过重点客户合作产生光环效应,验证平台能力,拓展未来商业机遇。
第三季度财报显示,高通QCT部门中手机业务收入占比达70.37%,同比增长7%,低于QCT整体11%增速;IoT和汽车业务分别增长24%和21%。
在全球智能手机市场增长乏力背景下,开拓数据中心等新增长点成为高通战略重点。
随着AI200与AI250在未来两年逐步落地,高通在AI推理市场的进展将受到持续关注。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 


 

 
 
 
