华为开源盘古7B与72B混合专家模型

6月30日,华为宣布正式开源盘古70亿参数稠密模型和盘古Pro MoE 720亿参数混合专家模型,并公开相关推理代码。据华为官网信息,基于昇腾的超大规模MoE模型推理代码已上线开源平台,盘古7B模型权重及代码也将于近期发布。(一财科技)

免责声明:本文内容由开放的智能模型自动生成,仅供参考。

最新文章
Copyright © DoNews 2000-2025 All Rights Reserved
蜀ICP备2024059877号-1