6月30日,华为宣布正式开源盘古70亿参数稠密模型和盘古Pro MoE 720亿参数混合专家模型,并公开相关推理代码。据华为官网信息,基于昇腾的超大规模MoE模型推理代码已上线开源平台,盘古7B模型权重及代码也将于近期发布。(一财科技)
免责声明:本文内容由开放的智能模型自动生成,仅供参考。
6月30日,华为宣布正式开源盘古70亿参数稠密模型和盘古Pro MoE 720亿参数混合专家模型,并公开相关推理代码。据华为官网信息,基于昇腾的超大规模MoE模型推理代码已上线开源平台,盘古7B模型权重及代码也将于近期发布。(一财科技)
免责声明:本文内容由开放的智能模型自动生成,仅供参考。