华为发布准万亿模型Pangu Ultra MoE模型架构和训练细节

2025-05-30 16:09:02

  近日,华为在MoE模型训练领域再进一步,推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE训练性能上的跨越。

  据悉,训练超大规模和极高稀疏性的MoE模型极具挑战,训练过程中的稳定性往往难以保障。针对这一难题,盘古团队在模型架构和训练方法上进行了创新性设计,成功地在昇腾平台上实现了准万亿MoE模型的全流程训练。

下一篇:我武生物:子公司在研的异体间充质干细胞治疗药物目前处在临床前研究阶段
上一篇:收评:创业板指跌0.96% 银行板块、创新药概念走强
返回顶部小火箭