印度Sarvam发布两款开源MoE大模型,105B版性能超Gemini Flash

2026年2月18日,印度AI实验室Sarvam在班加罗尔举行的印度人工智能影响力峰会上发布两款自研MoE架构大语言模型。两款模型均将开源权重至Hugging Face,后续提供API与仪表盘支持。小型号为30B-A1B,支持32K上下文,面向低延迟实时场景;大型号为105B-A9B,支持128K上下文,适用于高复杂度任务。Sarvam称其105B-A9B在印度语言基准测试中优于谷歌Gemini 2.5 Flash,在多数通用基准中优于DeepSeek R1,多项指标超越Gemini Flash。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2026 All Rights Reserved
蜀ICP备2024059877号-1