近日,微博AI正式推出开源大型语言模型VibeThinker-1.5B。
该模型拥有15亿参数,在数学推理与代码生成任务中表现卓越,性能超越6710亿参数的DeepSeek R1模型,并可与Magistral Medium、Claude Opus4及gpt-oss-20B Medium等主流大模型抗衡。
VibeThinker-1.5B采用“谱-信号原则”(SSP)训练框架,分阶段进行监督微调与强化学习,有效提升小模型的推理能力。其后期训练成本仅为7800美元,显著低于同类模型。目前,该模型已在Hugging Face、GitHub及ModelScope平台免费开放下载。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



