Meta发布MobileLLM-R1系列轻量语言模型 专攻数学编程任务

Meta最新推出MobileLLM-R1系列小语言模型,包含1.4亿、3.6亿和9.5亿参数版本,主打轻量化特性,可原生运行于移动设备。该系列采用监督式微调技术,专注解决数学、Python/C++编程及科学问题,无需通用对话功能。

以950M参数版本为例,其预训练数据仅消耗2TB高质量token,总训练量不足5TB,却在MATH、GSM8K等基准测试中超越使用36TB数据训练的Qwen 3-0.6B。具体表现为:在MATH测试准确率达Olmo 1.24B的5倍,编程任务表现也优于SmolLM 1.7B等同类模型。

开发者现可通过vLLM推理引擎调用模型,基于Apache 2.0协议的开源代码已登陆Hugging Face平台。

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1