财联社
财经通讯社
打开APP
09:09:04【小红书开源首个大模型 预训练未使用合成数据】
《科创板日报》10日讯,小红书开源了首个大模型dots.llm1,小红书方面告诉《科创板日报》,dots.llm1是一个1420亿参数的混合专家模型(MoE),在推理过程中仅激活140亿参数,能保持高性能的同时大幅度降低训练和推理成本。此外,dots.llm1.ins在预训练阶段使用了11.2万亿的非合成数据,最终性能与阿里Qwen3-32b相比,在中英文、数学、对齐任务上表现接近。(记者 张洋洋)
人工智能 TMT行业观察
财联社声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
2025-06-10 09:09:04 2835644 阅读
商务合作
专栏
相关阅读
评论
热度
最新
发送