
①在OpenRouter平台的token总调用量前五中,中国模型占据四席,合计市场份额超过60%; ②编程(Coding)和智能体(Agent)正成为大模型的两大核心比拼点; ③当前Token消耗呈现明显的“通胀”趋势。
《科创板日报》2月24日讯(编辑 宋子乔) 春节期间国产大模型的使用情况可谓如火如荼。OpenRouter最新周度数据显示,平台前十模型总token量约8.7万亿,中国模型独占5.3万亿,占比61%。
当周token调用量前三模型均为国产大模型,分别为Minimax M2.5、Kimi K2.5、GLM-5,调用量环比上周分别变动增加197%、下降20%、增加158%。其中,MiniMax M2.5以2.45万亿token空降榜首,Kimi K2.5以1.21万亿紧随其后,智谱GLM 5和DeepSeek V3.2分列第三、第五。
OpenRouter是全球最大的大模型API聚合平台,可为开发者提供统一API接口,以访问全球数百种大语言模型。其核心功能包括多模型调用、智能路由优化和透明的性能排行榜,旨在解决多模型集成复杂和厂商封锁问题。
从该平台提供的数据看,编程(Coding)和智能体(Agent)正成为大模型的两大核心比拼点。
OpenRouter整体调用量近期大幅攀升。官方确认,M2.5带动了100K至1M长文本区间的增量调用需求,这个区间正是智能体工作流的典型消耗场景。
论token调用量,在此平台排名前三的国产大模型都聚焦于提升编程能力和智能体(Agent)任务的自动化水平,是2026年初国产大模型在应用层面的重要突破。
稀宇科技(MiniMax)于2月13日发布MiniMax M2.5,称该模型为全球首个为智能体场景原生设计的生产级旗舰模型。其发布后七天的调用量即突破3.07T tokens,凭借在编程和Agent工作流中的卓越性能与极低的成本,成为开发者首选。
月之暗面(Moonshot AI)于1月27日发布KimiK2.5,该模型采用原生多模态架构,能通过调度多达100个“Agent分身”并行工作,将复杂任务效率提升3到10倍。该模型在多个细分榜单(如编程、工具调用)中均排名第一,其调用量远超Gemini 3和Claude模型。据澎湃新闻报道,该大模型发布不到一个月,Kimi近20天累计收入已超过2025年全年总收入,增长主要受全球付费用户及API调用量大涨共同推动,其中海外付费用户数快速增长。
智谱于2月12日发布GLM-5,该模型参数规模进一步扩展,采用了稀疏注意力机制,是其专为复杂系统工程与长程Agent任务设计的旗舰模型。凭借免费、200K上下文窗口等优势,该模型发布后用户迎来高速增长,智谱对Coding Plan先后进行了限售、涨价等动作,除夕当天官宣全网寻找“算力合伙人”。
随着AI模型应用场景深化,用户从简单问答转向复杂工作流,如让模型重构代码、改写文件、生成文档等,以及智能体模式普及,当前token消耗呈现明显的“通胀”趋势。
性能提升的同时,国产模型仍以性价比优势出圈。如MiniMax M2.5和智谱GLM-5相比Claude Opus 4.6具备显著的成本优势:在输入环节,MiniMax M2.5与GLM-5的价格均为0.3美元/百万token,而Claude Opus 4.6则高达5美元/百万token,是前两者的约16.7倍;在输出环节,MiniMax M2.5的价格为1.1美元/百万token,GLM-5为2.55美元/百万token,而Claude Opus 4.6的输出价格达25美元/百万token,分别是MiniMax M2.5的约22.7倍和GLM-5的约9.8倍。
上述国产模型并不能完全反映国内模型厂商的token调用量情况。据海通国际证券,数据显示,火山引擎的大模型日均token调用量已从2024年底的2万亿增长至2025年底的63万亿;阿里云外部客户2025年日均token调用也已接近5万亿,2026年目标至少15-20万亿,内部业务日均调用则计划从16-17万亿拉到100万亿。从全行业看,中国整体日均token消耗2024年初为1000亿,2025年中突破30万亿,2026年2月主流大模型合计日均token消耗已到180万亿级别。
东莞证券最新研报表示,随着国产模型的编程、智能体能力提升,其调用量大幅增加,国产大模型在编程、智能体领域对标全球头部模型,有望进一步加快应用落地,加速token消耗量上涨。
长江证券此前表示,随着编程和多模态模型和产品的逐步成熟,下游应用场景有望被真正打开,带来大量的高质量token需求。参照海外AI产业发展规律,从资本开支投入到token需求爆发存在约两年的滞后期。国内大厂的AI资本开支周期较海外滞后约一年,于2024年下半年开启。因此,国内云厂商收入已开始兑现增长,而token数量的真正爆发预计将在2026年到来。