①台积电第四季度利润增长35%,创历史新高,连续第八个季度实现利润同比增长,营收1.046万亿新台币,超出预期;
②7nm以下先进芯片贡献超七成营收,其中3纳米工艺技术占比28%,5纳米和7纳米分别占35%和14%。
《科创板日报》1月15日讯(记者 李明明)一家大模型公司与一家电信巨头的合作,正助力中国AI产业摆脱对海外芯片的依赖,并将高端AI能力的价格进一步“打下来”。
《科创板日报》记者独家获悉,智谱联合华为开源新一代图像生成模型GLM-Image,模型基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架完成从数据到训练的全流程,是首个在国产芯片上完成全程训练的SOTA多模态模型。
据介绍,GLM-Image实现了图像生成与语言模型的联合,API调用模式下,生成一张图片仅需0.1元。这也意味着,相比国际主流闭源模型,其API调用价格仅为海外同类产品的1/10至1/3。
实测GLM-Image:实现了对文字的精准识别与规范生成
智谱与华为的合作标志着国产AI生态系统建设进入新阶段。GLM-Image不仅是一项技术突破,更是中国在人工智能领域自主创新能力的体现。
这次合作的意义在于完成了从数据预处理到大规模训练的全流程构建,验证了在国产全栈算力底座上训练前沿模型的可行性。
据智谱方面对《科创板日报》记者介绍,GLM-Image采用创新的自回归 + 扩散编码器混合架构,克服了海报、PPT、科普图等知识密集型场景生成难题,向探索以 Nano Banana Pro(是谷歌DeepMind发布的专业级AI图像生成与编辑模型)为代表的新一代“知识+推理”的认知型生成模型迈出了重要一步;
在CVTG-2K(复杂视觉文本生成)和LongText-Bench(长文本渲染)榜单获得开源第一,尤其擅长汉字生成任务;
模型还具有高性价比与速度优化:API调用模式下,生成一张图片仅需0.1元,速度优化版本即将更新。
“GLM-Image是我们面向认知型生成技术范式的一次重要探索。这是首个开源的工业表现级离散自回归图像生成模型,我们希望借此与开源社区分享我们在这一前沿方向的技术路径与实践思考。” 智谱相关负责人介绍。
长期以来,AI生图“识文难、写对更难”的痛点一直备受行业诟病。以往借助AI生成海报,纵然画面视觉效果出众、美感十足,文字呈现却往往差强人意,或是笔画残缺不全,或是字形错乱难辨,形同自创的火星文字,难以满足实际应用需求。
而本次推出的GLM-Image,其核心卖点正是攻克了这一行业顽疾,实现了对文字的精准识别与规范生成。尤其对AI手抄报、插画、海报都能实时准确生成。
《科创板日报》记者对GLM-Image开展实测,聚焦其文字指令理解与落地能力,仅输入“用橙色和白色生成爱马仕商业海报”一句提示词,随即得到对应视觉输出,实测效果直观呈现。

GLM-Image 也适用于制作社交媒体封面及内容等排版复杂的图片,让创作更自由丰富。为进一步验证模型能力,《科创板日报》记者发出“用千与千寻的一句经典台词生成社交媒体封面”的简洁提示词,启动本轮实测。

成本革命:API调用仅0.1元/张
华为Ascend A2芯片与Mindspeed-LLM框架的协同,堪称本次发布的核心硬核亮点。众所周知,训练数十亿参数的SOTA级模型,对算力稳定性与通信带宽均有着极高要求,此前业界普遍依赖英伟达算力芯片支撑此类训练任务。
智谱与华为的合作不仅仅是技术突破,更是对国产AI生态的重构尝试。这一合作打通了从国产芯片、AI框架到多模态模型的全链路技术栈,为国内企业提供了完整的自主可控AI解决方案。
一位大模型领域业内人士对《科创板日报》记者分析,在算力层面,昇腾芯片的成熟度为国产AI训练提供了可靠的基础设施。GLM‑Image的成功训练验证了国产芯片在复杂多模态模型训练中的可行性,为更多AI企业选择国产算力提供了信心。华为昇腾芯片的算力表现和稳定性在此次合作中得到了充分验证。这一突破使中国企业能够摆脱对海外AI训练芯片的依赖,降低了关键技术被“卡脖子”的风险。
“与传统的‘模型迁就芯片‘模式不同,GLM‑Image在算法设计阶段就充分考虑了昇腾芯片的架构特点,最大化芯片算力利用率。GLM‑Image的成功训练不仅证明国产芯片能够支撑前沿模型训练,更为整个产业提供了从‘芯片适配模型‘向‘模型定义芯片‘转型的范本。”
GLM‑Image最引人注目的优势还在于其极低的商业化成本。在API调用模式下,生成一张图片的价格0.1元。而海外主流闭源模型如GPT-Image 、Nano Banana等,API调用价格折合人民币约0.28元-1.2元/张,GLM-Image价格仅为海外同类模型的1/10至1/3,且开源可商用无需额外授权费,成本优势显著。
低成本背后是完整的国产化技术栈支撑。从硬件层的昇腾芯片,到框架层的MindSpore,再到模型层的GLM‑Image,全链条国产化大幅降低了技术授权和供应链成本。
与此同时,开源可商用特性免除了企业的授权费用,使得中小企业能够以极低的门槛接入先进的多模态AI能力。智谱同步提供的轻量化部署方案支持消费级GPU运行,进一步降低了中小企业的AI准入门槛。
此外,不只智谱,2026年开年来,多个AI厂商继续发力大模型能力,MiniMax于2026年1月14日正式开源OctoCodingBench,这是国内首个面向Coding Agent的系统性评测集。
1月12日DeepSeek联合北大发布大模型论文,梁文锋位列作者,首创“条件记忆”概念,直击大模型记忆力短板,开辟大模型稀疏性技术新维度。