腾讯混元宣布开源其国际翻译模型Hunyuan-MT-7B,供开发者免费下载部署。该模型总参数量为7B,支持33个语种及5种民汉语言/方言互译。
在8月底结束的国际计算语言学协会(ACL)WMT2025比赛中,Hunyuan-MT-7B在31个语种比赛中获得30个第一名,涵盖中、英、日等常见语种及捷克语、马拉地语等小语种。比赛要求模型满足开源条件并仅使用公开数据训练,该模型在参数规模受限的情况下击败多个更大参数模型。
该模型在Flores200测评数据集上表现卓越,效果领先同尺寸模型,与超大尺寸模型相比亦具竞争力。腾讯混元提出了覆盖预训练、CPT、监督调参、翻译强化及集成强化的完整训练范式,实现翻译效果优化。
同时开源的还有业界首个翻译集成模型Hunyuan-MT-Chimera-7B,可基于多个翻译模型输出生成更优结果,支持Hunyuan-MT-7B及deepseek等第三方模型接入。
目前,腾讯混元翻译模型已应用于腾讯会议、企业微信、QQ浏览器、翻译君、海外客服翻译等多个产品。
Hunyuan-MT-7B已在腾讯混元官网提供体验入口,并可在Huggingface和Github下载,相关技术报告和论文亦已公开。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。