北京时间周四零点,Google发布了高速、低成本模型Gemini 3 Flash,作为其今年大模型领域的收官之作。
该模型基于上个月发布的Gemini 3,明显带有抢OpenAI风头的意味。与此同时,Google还将Gemini 3 Flash设为Gemini应用和搜索AI模式中的默认模型。
这款新的Flash模型距离Google发布Gemini 2.5 Flash仅过去六个月,但在性能上实现了显著跃升。基准测试显示,Gemini 3 Flash相比前代模型有大幅提升,并在部分指标上达到了Gemini 3 Pro和GPT-5.2等前沿模型的水平。
在智能/成本上,它成为了全球性价比最高的模型。
例如,在Humanity’s Last Exam基准测试中(该测试旨在评估模型在不同专业领域的综合能力),在不使用工具的情况下,Gemini 3 Flash取得了33.7%的成绩。作为对比,Gemini 3 Pro的得分为37.5%,Gemini 2.5 Flash为11%,而新发布的GPT-5.2则为34.5%。
与此同时,谷歌也将这款新模型在全球范围内向数以百万计的用户开放,覆盖以下渠道:
开发者:通过Google AI Studio中的Gemini API、Gemini CLI,以及全新的智能体开发平台Google Antigravity
所有用户:通过Gemini应用,以及搜索中的AI模式(AI Mode in Search)
企业用户:通过Vertex AI和Gemini Enterprise
Gemini 3 Flash发布后,大家第一时间进行了使用测试,发现这个AI回答问题的响应速度基本都在1秒以内,的确是跟搜索引擎一样快。而且它在回答问题的时候相比以前更加详细,知识的覆盖面、准确性也很高,看起来像是默认联网的。
网友们猜测,Gemini 3 Flash可以被谷歌用来代替搜索引擎,或是逐渐移植到移动端侧。不论如何,新模型都预示着AI模型的新时代正在到来。
1、Gemini 3 Flash:规模化的前沿智能
Gemini 3 Flash证明了,速度与规模并不必然以牺牲智能为代价。在多项博士级推理与知识基准测试中,例如GPQA Diamond(90.4%) 和Humanity’s Last Exam(在不使用工具的情况下为33.7%),Gemini 3 Flash均展现出前沿级性能,可与更大规模的前沿模型相媲美,并在多项基准测试中显著超越了此前最强的2.5代模型——Gemini 2.5 Pro。
同时,在多模态推理基准MMMU Pro上,Gemini 3 Flash以81.2%的高分达到了当前先进水平,其表现与Gemini 3 Pro不相上下。
从基准测试上可以看到,Gemini 3 Flash性能强大,在各方面都超越了Gemini 2.5 Pro,甚至在ARC-AGI-2和SWE-Bench Verified测试中胜过了Gemini 3 Pro。
现在,精简后的模型(体积缩小3-4倍)已经超越了6个月前的「前沿」模型。
除了具备前沿级的推理能力和多模态能力之外,Gemini 3 Flash在设计之初就以极高的效率为目标,进一步推动了质量与成本、速度之间的帕累托前沿。
在最高思考等级下运行时,Gemini 3 Flash能够动态调节自身的思考深度:面对更复杂的使用场景,它会投入更长时间进行推理;而在处理日常任务时,则能以更高性能完成目标,同时在典型业务流量下,平均使用的token数量比Gemini 2.5 Pro减少约30%。
这使得Gemini 3 Flash能够在保证准确性的同时,以更低的成本和更高的效率完成日常任务。
Jeff Dean表示:「我们再次突破了效率与智能之间的帕累托边界。」
Gemini 3 Flash的核心优势在于其卓越的原生速度,延续并强化了开发者和消费者早已青睐的Flash系列特性。根据Artificial Analysis的基准测试结果,Gemini 3 Flash在性能上超越Gemini 2.5 Pro的同时,速度提升达到3倍,而成本仅为其一小部分。
在定价方面,Gemini 3 Flash的费用为:
输入:每100万token收费0.50美元
输出:每100万token收费3美元
音频输入:仍为每100万token收费1美元
Gemini 3 Flash在速度和效率上均显著优于Gemini 2.5 Pro。在上一代模型尚未完成处理之前,Gemini 3 Flash已经生成了复杂图形、3D模型以及一个Web应用。
2、面向开发者:始终跟得上节奏的智能
Gemini 3 Flash专为高频迭代开发而打造,在保持低延迟的同时,提供Gemini 3 Pro级别的代码能力,能够在高并发、快节奏的工作流中迅速进行推理并解决问题。
在用于评估代码智能体能力的基准测试SWE-bench Verified上,Gemini 3 Flash取得了78%的成绩,不仅超越了2.5系列模型,也优于Gemini 3 Pro。
这使Gemini 3 Flash在智能体编程(agentic coding)、生产级系统以及高响应性的交互式应用场景中,实现了性能、速度与成本之间的理想平衡。
Gemini 3 Flash在推理能力、工具使用以及多模态能力方面的强劲表现,使其非常适合希望开展更复杂的视频分析、数据抽取和视觉问答(Visual Q&A) 的开发者。这也意味着,它能够支撑更具智能水平的应用场景——例如游戏内助手或A/B测试实验,在这些场景中,既需要快速响应,又要求深度推理能力。
Gemini 3 Flash在一款手势追踪的投球解谜游戏中实现了多模态推理,提供了近乎实时的AI辅助。
Gemini 3 Flash能够近乎实时地构建和进行A/B测试新的加载指示器设计,从而简化了从设计到编码的流程。
采用Gemini 3 Flash的企业反馈非常积极。包括JetBrains、Bridgewater Associates和Figma在内的多家公司,已经开始使用该模型推动业务转型,并认可其在推理速度、效率以及推理能力方面的表现,能够与更大规模的模型相媲美。
目前,Gemini 3 Flash已通过Vertex AI和Gemini Enterprise正式向企业客户开放。
Cursor开发者体验副总裁表示,他们的工程师发现,Gemini 3 Flash与Cursor的Debug Mode配合使用效果非常出色。该模型在问题排查和定位Bug根本原因方面表现出速度快、准确性的优势。
3、面向所有人:Gemini 3 Flash全球上线
Gemini 3 Flash现已成为Gemini应用的默认模型,取代了2.5 Flash。这意味着全球Gemini用户都已能免费体验Gemini 3,从而大幅提升日常任务的处理效率。
凭借Gemini 3 Flash卓越的多模态推理能力,你可以利用它更快地查看、聆听和理解各种类型的信息。例如,你可以让Gemini理解视频和图像,并在短短几秒钟内将这些内容转化为实用且可行的计划。
或者,你无需任何编程知识,即可使用语音快速从零开始构建实用的应用程序。只需随时随地向Gemini发出语音指令,它就能在几分钟内将人们零散的想法转化为功能完善的应用程序。
使用Gemini 3 Flash描述一个想法,并在几分钟内将其转化为可行的原型。
Gemini 3 Flash也正在逐步推广,谷歌希望它能成为全球用户使用的搜索功能中AI模式的默认模型。
基于Gemini 3 Pro的推理能力,搭载Gemini 3 Flash的AI模式能够更有效地理解你问题的细微之处。它会考虑查询的各个方面,提供全面的回复,以易于理解的方式呈现——从网络上提取实时本地信息和有用的链接。最终结果有效地将研究与实际行动相结合:生成条理清晰的分析以及具体的建议。最后,一切都以搜索的速度完成。
在处理需要考虑多个因素的复杂目标时,例如计划一次说走就走的旅行,或快速学习复杂的教育概念,这项功能尤其出色。
谷歌表示,Gemini 3 Flash现已通过Google AI Studio、Google Antigravity、Vertex AI和Gemini Enterprise中的Gemini API提供预览版。你还可以通过其他开发者工具(例如Gemini CLI和Android Studio)访问新模型。此外,它也已开始在Gemini应用和搜索的AI模式中面向所有用户推出。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



