火山引擎披露最新成绩:豆包大模型日均Tokens调用量已突破30万亿。
10月16日,火山引擎发布豆包大模型系列更新,包括豆包大模型1.6原生支持多种思考长度,并推出豆包大模型1.6 lite、豆包语音合成模型2.0、豆包声音复刻模型2.0等全新模型。
截至9月底,豆包大模型日均Tokens调用量超30万亿,较5月底增长逾80%。IDC报告显示,2024年上半年中国公有云大模型服务市场中,火山引擎以49.2%的份额位居第一。
豆包大模型1.6成为国内首个原生支持“分档调节思考长度”的模型,提供Minimal、Low、Medium、High四档选择,适配不同企业场景需求。实测显示,低思考长度档位下,模型总输出Tokens较旧版下降77.5%,思考时间缩短84.6%,效果保持不变,解决了此前深度思考模式使用率仅18%的痛点。
新推出的豆包大模型1.6 lite较旗舰版更轻量、推理速度更快,在企业级场景测评中效果较豆包大模型1.5 pro提升14%;在0-32k输入区间内,综合使用成本降低53.3%。
火山引擎总裁谭待表示,全球AI大模型正沿三大方向演进:深度思考与多模态融合、音视频模型达生产级水平、企业级复杂Agent成熟化。他认为,Tokens调用量是衡量企业AI转型的关键指标,日均不足10亿难以称为真正转型,而增长核心在于为客户创造实际价值,如提升效率、降低成本、促进硬件销售等。
谭待指出,生成类模型增长迅速,生图生视频应用增多,AI代码在国内尚未完全爆发。过去四年,火山引擎每年营收目标均超预期完成,AI大幅降低了企业和开发者使用门槛。
针对“模型太多选不准”难题,火山引擎当天发布国内首个智能模型路由方案——Smart Model Router,已在火山方舟平台开放使用,支持“平衡模式”“效果优先模式”“成本优先模式”,可自动匹配最优模型,实现效果与成本双优。
实测数据显示,效果优先模式下路由至DeepSeek模型时效果较直接使用DeepSeek-V3.1提升14%;成本优先模式下,在保持相似效果前提下,综合成本最高下降超70%。该路由支持豆包全系模型及DeepSeek、Qwen、Kimi等主流开源模型,路由本身不收费,仅按最终调用模型计费。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。