阿里云发布七款大模型并与英伟达合作物理AI

在2025云栖大会现场,阿里云CTO周靖人发布了七款大模型技术产品,覆盖语言、语音、视觉、多模态和代码等领域。

阿里云推出旗舰模型Qwen3-Max,预训练数据量达36T,总参数超万亿,在编程和Agent工具调用能力上显著提升。

同时发布的还有下一代架构Qwen3-Next系列,其80B参数中仅激活3B即可达到Qwen3-235B性能水平。

千问编程模型Qwen3-Coder、视觉理解模型Qwen3-VL、全模态模型Qwen3-Omni同步亮相。

Qwen3-VL开源并升级3D Grounding能力,支持百万tokens上下文与超过2小时视频理解。

Qwen3-Omni具备音视频交互能力,可部署于车载、智能眼镜和手机等终端。

通义万相推出Wan2.5-preview系列,涵盖文生视频、图生视频、文生图和图像编辑四大模型。

该视频生成模型实现音画同步,支持10秒时长、24帧每秒的1080P高清输出,并增强指令遵循能力。

图像生成支持中英文文字与图表,可通过一句话完成图像编辑。

语音大模型通义百聆发布Fun-ASR语音识别模型和Fun-CosyVoice语音合成模型。

Fun-ASR基于数千万小时真实语音数据训练,具备上下文理解与行业适应性;Fun-CosyVoice提供上百种音色,适用于客服、直播电商等场景。

阿里云百炼平台升级,发布ModelStudio-ADK框架,1小时可开发深度研究报告项目,过去一年模型日均调用量增长15倍。

阿里云宣布新一轮全球基础设施扩建计划,将在巴西、法国、荷兰新建云计算地域节点,并扩建墨西哥、日本、韩国、马来西亚和迪拜数据中心。

目前阿里云在全球29个地区运营91个可用区,今年以来已在多地启用8个新AI与云数据中心。

阿里巴巴集团CEO吴泳铭表示,公司正推进三年3800亿AI基础设施建设计划,远期规划至2032年全球数据中心能耗规模较2022年提升10倍。

阿里云发布磐久128超节点AI服务器,单柜支持128个AI芯片,集成自研CIPU 2.0芯片与高性能网卡,推理性能提升50%。

新一代高性能网络HPN 8.0支持800Gbps存储带宽与6.4Tbps GPU互联带宽,可实现10万卡GPU高效互联。

CPFS单客户端吞吐达40GB/s,Tablestore为Agent提供记忆库支持,OSS推出Vector Bucket,向量存储成本降低95%。

灵骏智算集群通过多级亲和性调度设计,支持10万卡稳定互联。

第九代企业级实例采用英特尔与AMD最新芯片,g9ae实例性能最高提升67%,适合高并发场景。

阿里云与英伟达在Physical AI领域合作,PAI平台将集成NVIDIA Isaac Sim、Isaac Lab、Cosmos及Physical AI数据集等软件栈。

合作旨在提供数据预处理、仿真生成、模型训练、强化学习与测试的全链路服务,缩短具身智能与辅助驾驶应用开发周期。

联想展示算力基础设施与液冷技术,其百应智能体已接入Qwen3大模型,提升语言理解与多轮推理能力。

鸿鑫智造为阿里云提供液冷系统方舱,磐久128超节点后续将采用液冷散热。

软通动力展出基于第四代英特尔志强处理器的N810I A2系列服务器,支持多种AI加速卡。

傅利叶GR-3人形机器人展示多模态交互与跨设备协作能力,可通过语义识别联动智能家居执行任务。

傅利叶创始人顾捷表示,技术创新与场景落地需协同发展,才能实现价值闭环。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1