[流言板]华为回应抄袭阿里大模型:非基于其他厂商模型增量训练而来

avatar
关注

虎扑07月07日讯 对于近期开源社区及网络平台关于盘古大模型开源代码的讨论,华为方面回应称:“盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来,在架构设计、技术特性等方面做了关键创新,是全球首个面向昇腾硬件平台设计的同规格混合专家模型,创新性地提出了分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡难题,提升训练效率。”

据悉,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。我们严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。我们始终坚持开放创新,尊重第三方知识产权,同时提倡包容、公平、开放、团结和可持续的开源理念。

来源:微博

发布于上海阅读 81135

这些回复亮了

discusser-avatar

cwr1

· 湖南
七彩皮皮哲你的极大概率不就是什么证据都没有?连你这种极端米粉都没证据,那基本就是假的
收起

内部的宫斗剧哪来什么证据,至于模型有没有套壳一眼的事情,目前 pangu 最牛逼的模型 pangu 718 ultral,和deepseek一样,都是61层,并且有3个dense层;stage 0有2个dense层,stage 1有1个dense,加起来是3个dense,和deepseek一样,有256个路由专家和1个共享专家,并激活8个路由专家;每个专家的hidden size 都是2048,注意力机制都是用的MLA,有128个头和 deepseek 一样,用了deepseek的MTP,这是大众认知的证据。当然,肯定不符合嗨粉的证据,但是换一家公司比如小米,对嗨粉来说这就是实锤证据了

亮了(447)
查看回复(4)
回复
discusser-avatar

虎扑JR1428923372

· 浙江
七彩皮皮哲从头到尾不就是小作文么?证据啊…你们当做圣经的github原作者都跑路了啊…到现在为止都没有任何证据,只有一篇小作文和一个删库跑路的假论文
收起

把实验室各部门各方案都扒出来叫做小作文,你要不澄清一下实验室里你担任什么职责?

亮了(240)
查看回复(2)
回复