火山引擎AI创新巡展武汉站:全新发布、升级四款豆包大模型

今天,在FORCE LINK AI 创新巡展·武汉站,火山引擎全新发布和升级了款豆包大模型:豆包大模型1.6升级,原生支持4种思考长度;豆包大模型1.6 lite、豆包语音合成模型2.0、豆包声音复刻模型2.0全新发布!

迈向Agentic AI,企业需要更精细地平衡模型效果与成本,为此火山引擎正式发布智能模型路由,支持豆包大模型、DeepSeek、Qwen、Kimi等多种主流模型的智能选择调用。

随着AI产业落地持续加速,截至20259月底,豆包大模型日均tokens调用量已突破30万亿,相比今年5月底增长超80%。在企业市场,IDC报告显示,2025年上半年中国公有云大模型服务市场,火山引擎以49.2%的份额占比位居中国第一。

火山引擎总裁谭待指出,全球AI大模型正在三个方向上快速发展:一是深度思考模型正与多模态理解能力融合,二是视频、图像、语音模型逐步实现生产级水平,三是企业级复杂Agent正在走向成熟,为企业激发新的生产力潜能。

火山引擎总裁 谭待

豆包大模型1.6升级

国内首个原生支持分档调节思考长度的大模型

在服务大量企业用户的过程中我们发现,在开启深度思考模式下,模型效果平均可提升31%,但会提高模型延迟和使用成本,这导致在实际应用中,深度思考模式的使用占比仅有18%。

针对这一痛点,豆包大模型1.6全新升级:提供MinimalLowMediumHigh四种思考长度,平衡企业在不同场景下对模型效果、时延、成本的不同需求,并进一步提升了思考效率。这也是国内首个原生支持分档调节思考长度的模型。

以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包1.6模型总输出tokens下降77.5%、思考时间下降84.6%,模型效果保持不变。

此外,为进一步满足企业的多样化需求,火山引擎正式推出豆包大模型1.6 lite(Doubao-Seed-1.6-lite),相比旗舰模型豆包1.6更轻量、推理速度更快、更具性价比。效果上,该模型超越豆包大模型1.5 pro(Doubao-Seed-1.5-pro),在企业级场景测评中较豆包1.5 pro提升14%;价格上,在使用量最大的0-32k输入区间里,综合使用成本较豆包1.5 pro降低53.3%

豆包语音合成、声音复刻模型2.0发布

让声音能理解、会表演

大会上,火山引擎正式发布豆包语音合成模型2.0Doubao-Seed-TTS 2.0)、豆包声音复刻模型2.0Doubao-Seed-ICL 2.0,具备更强的情感表现力、更精准的指令遵循能力,还能准确朗读复杂公式。

该模型基于豆包大语言模型研发语音合成新架构,让合成和复刻的声音都能进行深度语义理解,并拓展出上下文推理能力,从单纯的文本朗读进化为 “理解后的精准情感表达”。用户还能通过自然语言,实现对语速、情绪、声线、音调、风格变化的精准调整,大幅提升语音的可控性。

此外,在教育场景中,复杂公式和符号的朗读一直是业界难题,目前市面上的同类模型朗读准确率普遍低于50%。新发布的两大语音模型进行了针对性优化,目前在小学至高中阶段全学科的复杂公式朗读中,准确率可达90%

自去年5月首次发布以来,豆包语音模型家族已包含语音合成、语音识别、声音复刻、实时语音、同声传译、音乐创作、播客创作等7大领域,已覆盖超过4.6亿台智能终端。语音,正在成为AI应用的核心交互方式。

智能模型路由发布

国内首个模型智能选择解决方案

模型越来越多,面对具体需求时,如何选择模型最有性价比?

为了解决这个问题,火山引擎发布智能模型路由(Smart Model Router),这是国内首个针对模型智能选择的解决方案。即日起,用户可以在火山方舟上选择“智能模型路由”功能,该功能支持“平衡模式”、“效果优先模式”和“成本优先模式”三种方案,可针对任务请求自动选择最合适的模型,达到效果与成本的最优解。

目前,火山引擎智能模型路由已支持豆包大模型、DeepSeekQwenKimi等多种主流模型。以DeepSeek为例,经过实测,在效果优先模式下,智能路由后,模型效果相比直接使用DeepSeek-V3.1提升14%;在成本优先模式下,在实现DeepSeek-V3.1相似效果的条件下,模型的综合成本最高下降超过70%。

声明:本站转载此文目的在于传递更多信息,并不代表赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容,本网站对此声明具有最终解释权。
最新文章
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1