Skip to main content

盘古大模型团队回应开源代码争议盘古 Pro MoE 技术开发团队今日发布声明,回应近期关于盘古大模型开源代码的网络讨论

  1. 科技圈🎗在花频道📮
    原始论文.pdf
    盘古大模型团队回应开源代码争议

    盘古 Pro MoE 技术开发团队今日发布声明,回应近期关于盘古大模型开源代码的网络讨论。团队强调,盘古 Pro MoE 开源模型基于昇腾硬件平台开发训练,并非基于其他厂商模型增量训练而来。

    该模型创新性提出分组混合专家模型(MoGE)架构,有效解决大规模分布式训练的负载均衡难题。团队承认部分基础组件代码实现参考了业界开源实践,但严格遵循开源许可证要求,在代码文件中清晰标注版权声明。声明表示将继续坚持开放创新,尊重第三方知识产权。

    诺亚方舟实验室

    📮分享投稿 ☘️频道 🍵茶馆
    😁 224 👎 58 👍 29 🤣 8 ❤️ 6 🔥 5 emoji 5 🤬 3