打开APP
×
08:49 智谱首次披露GLM-5 Coding Agent推理工程实践
《科创板日报》30日讯,4月30日凌晨,智谱发布技术博客,首次系统披露GLM-5系列模型在超大规模Coding Agent调用场景下的底层推理技术突破。包括系统吞吐最高提升132%,相同硬件条件下服务能力的显著扩容。KV cache 修复方案(改进了模型在长对话中的记忆缓存机制,从而提升推理效率)获SGLang开源社区采纳。此外,公司推理优化还在进一步加速,大幅提升单位算力token吞吐效率,降低推理成本。(记者 李明明)
算力
阅读 46893
特别声明:文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。
相关新闻
相关企业家
联系Ta
联系企业家
为保护双方个人信息请联系您的专属助理进行接洽
我再想想
点击复制
复制成功,请去微信添加