6月9日,社交平台小红书发布首个开源大模型dots.llm1。该模型参数达1420亿,采用专家混合模式(MoE),推理时仅激活140亿参数,显著降低成本。其训练数据高达11.2万亿token,质量优异且非合成,在中文测试中以91.3分超越DeepSeek和阿里Qwen2.5等模型。这一成果展现了国内大模型技术的新突破。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
6月9日,社交平台小红书发布首个开源大模型dots.llm1。该模型参数达1420亿,采用专家混合模式(MoE),推理时仅激活140亿参数,显著降低成本。其训练数据高达11.2万亿token,质量优异且非合成,在中文测试中以91.3分超越DeepSeek和阿里Qwen2.5等模型。这一成果展现了国内大模型技术的新突破。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。