6月30日消息,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型,同时开放基于昇腾AI平台的模型推理技术。
6月30日消息,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型,同时开放基于昇腾AI平台的模型推理技术。

据介绍,盘古Embedded 7B模型参数规模为70亿,采用双系统框架,具备“快思考”和“慢思考”能力。盘古Pro MoE 72B模型总参数量720亿,激活参数量160亿,推理速度最高可达单卡1528tokens/s。
据了解,盘古是华为推出的一系列超大规模人工智能预训练模型,涵盖自然语言处理、计算机视觉、科学计算等多个领域。其名称寓意“开天辟地”,象征着华为在人工智能基础研究和行业应用上的突破性探索。盘古模型自发布以来,已在多个行业中实现落地,包括金融、制造、能源、交通等,助力企业实现智能化升级。