3月16日,法国Mistral AI公司正式推出Mistral Small 4模型。该模型为欧洲首家融合推理、多模态与编程能力的综合性LLM,采用MoE架构,总参数119B、激活参数6B,支持256k上下文及双推理模式。以Apache 2.0协议开源,延迟优化下端到端耗时降低40%,吞吐量达上代3倍;基准测试表现不逊于GPT-OSS 120B。最低部署需4×HGX H100等配置。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
3月16日,法国Mistral AI公司正式推出Mistral Small 4模型。该模型为欧洲首家融合推理、多模态与编程能力的综合性LLM,采用MoE架构,总参数119B、激活参数6B,支持256k上下文及双推理模式。以Apache 2.0协议开源,延迟优化下端到端耗时降低40%,吞吐量达上代3倍;基准测试表现不逊于GPT-OSS 120B。最低部署需4×HGX H100等配置。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。