Google发布Gemma 4开源模型,采用Apache 2.0许可并强化本地部署能力

4月3日,Google发布Gemma 4开放模型家族,官方定义为“迄今最智能的开放模型家族”,主打advanced reasoning、agentic workflows及跨设备本地运行能力。本次发布包含四个型号:E2B、E4B、26B A4B和31B Dense,其中E2B与E4B面向端侧轻量部署,26B A4B采用Mixture-of-Experts架构,31B Dense为高性能主力型号。Gemma系列自2024年首发以来累计下载超4亿次,社区衍生版本逾10万个。

Gemma 4支持文本与图像输入,E2B与E4B额外支持音频输入;上下文长度分别为128K(小模型)与256K(26B A4B及31B Dense);原生支持function calling、structured tool use与system instructions,定位为“本地agent基础模型”。在公开基准测试中,31B Dense在MMLU Pro达85.2%、AIME 2026 no tools达89.2%、LiveCodeBench v6达80.0%;26B A4B对应指标分别为82.6%、88.3%、77.1%。

Gemma 4是Gemmaverse中首批采用OSI认证Apache 2.0许可的模型。相较旧版Gemma Terms,新版许可明确赋予开发者修改、复用及再开发权利,规避了此前对“Model Derivatives”宽泛定义带来的法律不确定性,包括对基于权重修改、输出迁移模式或合成数据训练衍生模型的模糊约束,显著降低企业法务采纳门槛。

Google强调Gemma 4专为本地化运行设计,称其为“可在自有硬件上运行的最强模型家族”。26B A4B总参数25.2B,推理时仅激活3.8B参数,实际推理效率接近4B级模型。Android Developers Blog确认Gemma 4为下一代Gemini Nano 4的基础模型,后者将针对Android设备优化,性能达上代4倍,电池消耗最多降低60%。同步推出AICore Developer Preview,支持开发者在兼容设备上预览及原型化E2B/E4B。

Gemma 4与闭源旗舰Gemini构成互补关系,前者提供开放模型与本地部署空间,后者维持Google闭源能力前沿。Google旨在通过标准化许可、端侧适配及工具链整合(覆盖Hugging Face、Ollama、llama.cpp、Android AICore、Vertex AI等),将开发者重新纳入自身生态,而非仅作为API调用方存在。

Gemma 4未完全公开训练数据、训练流程与完整pipeline,但在许可规范性、部署灵活性与开发者友好度方面实现显著提升,标志着Google对开放模型生态的战略修正。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2026 All Rights Reserved
蜀ICP备2024059877号-1