美团发布5600亿参数大模型LongCat-Flash,推理速度超DeepSeek

近日,美团发布并开源首个混合专家(MoE)模型——LongCat-Flash,该模型拥有5600亿参数,并具备显著的速度优势。

目前LongCat-Flash推出了联网搜索生成功能,其“深度思考”功能暂未开放,页面显示“敬请期待”。

美团宣布将推出“龙猫开发者计划”,为优质项目提供算力补贴,并推出企业版API服务,定价较市场平均水平低30%。

在技术报告中,美团强调LongCat-Flash是在一个包含数万个加速器的大规模集群上完成训练的。该模型的训练是否摆脱了英伟达GPU尚未得到确认,有消息称其可能使用了国产芯片。

LongCat-Flash的创新之一是“零计算”专家机制,通过动态分配算力资源,仅对复杂token调用完整算力,从而节省算力。

该模型在H800上实现单用户每秒100+ tokens的推理速度,理论上每token输出时间相比DeepSeek-V3降低近50%。

测试显示,LongCat-Flash的响应速度极快,几乎在2秒内给出答案。快捷连接架构(ScMoE)使理论每token输出时间缩短至0.01秒,达到每秒100token。

在ArenaHard-V2基准测试中,LongCat-Flash取得86.50分,位列所有评估模型中的第二名,超过DeepSeek-V3.1。

编程能力方面,LongCat-Flash在TerminalBench中得分39.51,仅次于Claude4 Sonnet(40.7分)。

指令遵循方面,LongCat-Flash以89.65分位列第一。从官方报告来看,其性能比肩主流领先模型。

今年以来,美团连续发布NoCode、袋鼠参谋、美团既白等多款垂直应用,并最终开源自研大模型,表明其在AI领域的持续投入。

不过,开源模型消息发布后,美团股价未出现明显波动,资本市场对美团的大模型动作持观望态度。

几天前美团发布二季度财报,经营利润下滑至2.26亿人民币,同比下降98%。核心本地商业分部经营利润仅为37亿人民币,同比下降75.6%。

外卖市场竞争激烈,各家平台通过大额补贴争夺用户。7月中旬三平台被相关部门约谈后,补贴策略有所调整。

美团表示,AI将成为新业务突破口之一。王兴首次披露美团AI战略三层次,包括“AI at Work、AI in Products、Building LLM”。

其中,Building LLM战略涉及数十亿美元投入,用于采购GPU并自研基座模型。今年6月,美团核心本地商业CEO王莆中表示,每年在AI上投入超百亿元。

2025年二季度财报显示,美团研发投入达到63亿元,同比增长17.2%,主要用于AI和无人配送技术布局。

王兴表示:“AI将颠覆所有行业,我们的策略是主动进攻而非被动防御。”从当前布局来看,美团将大模型视为“必须做的选择”。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1