这是《YPS行业门户系统》综合演示网站
您好!欢迎光临YPS行业综合门户☺ [免费注册] [登录]
打造中国第一行业门户,助您问鼎行业巅峰!

华为盘古团队回应争议:非基于其他厂商模型增量训练而来,严格遵循开源许可证要求标注版权声明

来源:YPS数据挖掘大师   2025-07-06   浏览:110   字号:T|T
摘要:感谢YPS行业门户系统网友蛋炒鱼、Snailwang、软媒用户834672、灯笼Light、LLJ、二仙桥的线索投递!YPS行业门户系统7月5日消息,华为6月30日宣布开源盘古7B稠密和72B混合专家模型,但被质疑抄袭阿里云通义千问Qwen-2.514B模型。华为诺亚方舟实验室今日发布最新声明,表示盘古ProMoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。……
  感谢YPS行业门户系统网友 蛋炒鱼、Snailwang、软媒用户834672、灯笼Light、LL J、二仙桥 的线索投递!

  YPS行业门户系统 7 月 5 日消息,华为 6 月 30 日宣布开源盘古 7B 稠密和 72B 混合专家模型,但被质疑抄袭阿里云通义千问 Qwen-2.5 14B 模型。

  华为诺亚方舟实验室今日发布最新声明,表示盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。

  盘古团队表示,“盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。”

  YPS行业门户系统附原文如下:

  我们注意到近期开源社区及网络平台关于盘古大模型开源代码的讨论。

  盘古 Pro MoE 开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。其他技术特性创新,请参考昇腾生态竞争力系列技术报告披露内容。

  盘古 Pro MoE 开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。我们始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。

  感谢全球开发者与合作伙伴对盘古大模型的关注和支持,我们高度重视开源社区的建设性意见。希望通过盘古大模型开源,与志同道合的伙伴一起,探索并不断优化模型能力,加速技术突破与产业落地。

  我们欢迎并期待大家在开源社区 Ascend Tribe,就技术细节进行深入、专业的交流

  盘古 Pro MoE 技术开发团队
关于

华为盘古团队回应争议:非基于其他厂商模型增量训练而来,严格遵循开源许可证要求标注版权声明

相关信息
  • 肯定级别:
    • 肯定级别5分
    • 1
    • 2
    • 3
    • 4
    • 5
    评论者:  登录   游客
  • 提示:计算输入长度时包括格式代码。
    /800
  • 验证码: 验证码  
登录名:
密 码:
验证码: 验证码
业务流程
支付方式
快速链接
常见问题
服务与支持
咨询热线:0532-88781131 15166683288 13963906391
[YPS大型行业门户网站系统] 打造中国第一行业门户,助您问鼎行业巅峰!
未经授权禁止抄袭、镜像本站.  如有违反,追究法律责任.
Copyright ©2012
yps.yuhou.cn
[ YPS行业综合门户 ]