谷歌开源T5Gemma 2与FunctionGemma:端侧AI新进展
谷歌近日发布两款基于Gemma 3家族的端侧小型开源模型——T5Gemma 2和FunctionGemma,分别聚焦架构创新与函数调用能力优化。
T5Gemma 2采用经典的编码器-解码器(Encoder-Decoder)架构,回归Transformer原始设计路线。该模型提供270M–270M、1B–1B及4B–4B三种规模版本,支持多模态处理,并在长上下文生成、代码生成、推理及多语言任务上表现优于同体量Gemma 3模型。其结构优势体现在减少“幻觉”、提升端侧效率以及增强对图像等多模态输入的天然兼容性。
与当前主流的Decoder-only架构(如GPT、Llama、Gemini Pro/Flash)不同,T5Gemma 2通过“先理解再生成”的机制强化逻辑严谨性。谷歌利用已训练的Gemma 2或Gemma 3解码器权重进行模型适配,将参数映射至新的编码器-解码器结构中,实现高效迁移并降低训练成本。
FunctionGemma则是专为函数调用(Function Calling)优化的轻量化模型,参数量为2.7亿(270M),可在手机、浏览器及其他边缘设备运行。该模型剥离通用知识存储,专注于输出结构化数据(如JSON格式),以精准触发外部API或工具执行具体操作,适用于语音助手、家庭自动化、端侧智能体等场景。
FunctionGemma的设计目标是推动AI从“能聊天”向“能干活”转变,解决云端大模型存在的延迟高、隐私风险和成本问题。其训练策略强调句法精确性与逻辑确定性,在特定任务上经微调后准确率达85%,远超未微调基座模型的58%。
在移动端部署方面,FunctionGemma 270M在FP16精度下权重约为540MB,占用现代旗舰手机内存5%-7%,可后台常驻。通过Int8量化可降至约270MB,Int4量化进一步压缩至约135MB,适合低功耗设备运行。
谷歌通过开源这两款模型,意图建立AI与应用程序交互的标准协议。开发者只需暴露工具接口,FunctionGemma即可理解并调用,使AI成为通用用户界面。此举被视为加强Android生态系统护城河的战略布局。
谷歌展示了两个应用实例:一是自然语言转Android系统意图,实现邮件发送、信息澄清等多轮交互;二是“Tiny Garden”语音控制种田游戏,模型可分解复合指令为多个函数调用,全程离线运行,避免网络延迟影响体验。
这两项技术代表AI工程化的新方向——通过小型化与专业化,将智能下沉至终端设备。未来此类模型有望集成于智能手表、路由器、汽车等各类IoT设备中,使AI成为无处不在的基础设施。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



