华为宣布开源盘古7B稠密和72B混合专家模型

2025-6-30 15:08| 发布者: 谢晓新| 查看: 16| 评论: 0

今日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

  1. 盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。
  2. 基于昇腾的超大规模MoE模型推理代码,已正式上线开源平台。
  3. 盘古7B相关模型权重与推理代码将于近期上线开源平台。

我们诚邀全球开发者、企业伙伴及研究人员下载使用,反馈使用意见,共同完善。请访问https://gitcode.com/ascend-tribe

<
>
在培训行业极度市场化的今天,在网络工程师鱼目混珠的时代,帆联科技扎根技术的理念从来没有改变,帆联科技从不提倡短线功利性考证培训,严格要求教师和学员,要为自己的未来做出辛苦的努力。一分辛劳,一份收获。

联系我们

南宁市大学东路162号东盟财经广场1402

0771-3185755(服务时间:9:00-17:30)

admin@sail-lab.net

在线咨询新浪微博官方微信官方微信

部门热线

前   台:0771-3185755
培训部:15994437962
认证部:15994437962
技术部:15578317196

培训服务 考试认证 校企合作 联系电话0771-3185755 返回顶部
返回顶部