打开APP
×
10:39
蚂蚁与中国人民大学发布首个原生MoE扩散语言模型
《科创板日报》12日讯,在2025Inclusion·外滩大会上,蚂蚁集团与中国人民大学联合发布业界首个原生MoE架构的扩散语言模型(dLLM)“LLaDA-MoE”。LLaDA-MoE在约20T数据上完成了从零训练MoE架构的扩散语言模型,验证了工业级大规模训练的扩展性和稳定性。模型将在近期完全开源,以推动全球AI社区在dLLM上的技术发展。(记者 黄心怡)
人工智能
蚂蚁集团
阅读 67543
特别声明:文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。
相关新闻
AIDC呼唤电源架构升级 英伟达联手富士康推动HVDC落地
1小时前
华尔街警告声四起:AI投资狂潮恐致科技巨头“一损俱损”的局面!
1小时前
甲骨文CEO:OpenAI每年支付600亿美元“当然没问题”
7小时前
相关企业家
联系Ta
联系企业家
为保护双方个人信息请联系您的专属助理进行接洽
我再想想
点击复制
复制成功,请去微信添加