7月5日,盘古Pro MoE技术开发团队发布声明,回应近期关于其开源代码的讨论。团队表示,盘古Pro MoE是基于昇腾硬件平台开发的基础大模型,并非基于其他厂商模型增量训练而来。该模型创新性地提出了分组混合专家模型(MoGE)架构,是全球首个面向昇腾硬件平台设计的同规格混合专家模型。
声明指出,盘古Pro MoE部分基础组件代码参考了业界开源实践,涉及其他开源大模型的部分代码均严格遵循开源许可证要求,并在代码文件中清晰标注版权声明。
此前有研究称盘古大模型与阿里巴巴通义千问模型在参数结构上存在高度相似性,引发抄袭质疑。盘古团队在GitHub回应称该评估方法不科学,否认抄袭指控。