8月31日,美团正式开源自主研发的5600亿参数大语言模型LongCat-Flash,采用混合专家(MoE)架构,支持动态计算。该模型以MIT协议发布,代码已部署于Hugging Face和GitHub平台,适配SGLang和vLLM框架,旨在降低企业级应用门槛。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
8月31日,美团正式开源自主研发的5600亿参数大语言模型LongCat-Flash,采用混合专家(MoE)架构,支持动态计算。该模型以MIT协议发布,代码已部署于Hugging Face和GitHub平台,适配SGLang和vLLM框架,旨在降低企业级应用门槛。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。