打开APP
×
10:39 蚂蚁与中国人民大学发布首个原生MoE扩散语言模型
《科创板日报》12日讯,在2025Inclusion·外滩大会上,蚂蚁集团与中国人民大学联合发布业界首个原生MoE架构的扩散语言模型(dLLM)“LLaDA-MoE”。LLaDA-MoE在约20T数据上完成了从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性。模型将在近期完全开源,以推动全球AI社区在dLLM上的技术发展。(记者 黄心怡)
人工智能 蚂蚁集团
阅读 62926
特别声明:文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。
相关企业家
联系Ta
联系企业家
为保护双方个人信息请联系您的专属助理进行接洽
我再想想
点击复制
复制成功,请去微信添加