①华为的鲲鹏生态合作伙伴已超6000家,昇腾超2500家。在2025年,华为将在根生态体系的原生开发上加大投入,确定了三年内每年投入十亿元的计划; ②推理成本是大模型发展的一大挑战。未来,推理基础设施必须改变。
《科创板日报》1月15日讯(记者 黄心怡) 2024年,华为推出了根生态计划,围绕鲲鹏、昇腾、鸿蒙三大根技术,来打造开发者和伙伴的生态体系。
《科创板日报》记者从知情人士处了解到,华为的鲲鹏生态合作伙伴已超6000家,昇腾超2500家。在2025年,华为将在根生态体系的原生开发上加大投入,计划每年投入10亿元来支持原生开发计划。“我们会做中国的原生,无论是硬件的原生还是模型的原生、应用的原生,要加大投入。”
▍每年投入10亿元支持原生开发
在2025年,围绕鲲鹏、昇腾等生态体系的原生开发是华为的战略重点。其中,鲲鹏是面向通用计算的生态,即基于CPU芯片的服务器所提供的算力;昇腾是面向AI计算的场景,即GPU芯片、AI芯片等所提供的算力。
“大量的应用是要被重塑的,要重新开发的。如果还是在原来的体系上进行开发,那么还要花好多年的时间重新进行迁移。现在,华为构建在自己的技术路线上,那就是原生的开发,是中国在引领世界的原生开发。”
为此,华为设置了原生开发的基金和生态使能计划。“不是一家企业能把整个产业生态做起来的,是要产业链上下游,客户、伙伴一起努力,为了激活这个链条,我们投入一些资源让这个链条转起来。”
在具体的资源投入上,华为确定了三年内每年投入十亿元的计划,同时还划拨了专门的团队到项目驻场。“原生开发不是口号,是真的派人过去一起做。中国十几个大的行业,我们在每个行业里都投入了专门的‘特战队’,把研发、市场等人员一起投入到生产现场、业务场景,一起做相关的开发。”
在面向通用计算的鲲鹏生态方面,华为的目标是对标英特尔,从CPU处理器、ARM指令集、操作系统、再到数据库、中间件、ISV的应用软件层,都能完成昇腾的产业构建。
在面向智能计算的昇腾生态方面,从硬件原生、算子原生、加速库原生、模型原生、应用原生这五大场景把能力开放给国内AI产业的合作伙伴,来提升开发效率。
记者了解到,在硬件开放方面,鲲鹏已拥有13个整机伙伴,60多家KPN伙伴,超过95%的硬件发货由伙伴实现。得益于AI大模型浪潮的迅猛发展,昇腾的硬件伙伴则超过了60家,并拥有10个大模型一体机伙伴。
在未受到地缘政治影响之前,华为海外营收的占比曾达到70%。《科创板日报》记者获悉,在计算产业发展上,华为的目标也不止于国内市场。“我们真正的目标就是走出去,为世界提供新的选择。当然,走出去就要求有足够的竞争力,这个竞争力如何构建?在尚未走出去的时候,我们希望能够拉着国内的计算产业有愿景、有能力的伙伴一起把能力构建起来,一起走出去,在全球的计算市场打一打、比一比,这是目标。”
▍降低推理成本是大模型基础设施的方向之一
过去两年,随着AI大模型、生成式AI技术引爆全球,国内市场迅速掀起了“百模大战”,已完成备案并上线的生成式AI大模型数量在2024年7月时就已接近200个。而在2025年,“收敛”或成为国内大模型行业的关键词。
“美国在大模型上已经进行了收敛,不仅是技术收敛,还有厂家的收敛。如今基本是三家,谷歌、OpenAI+微软、Meta+Llma这一块发力。从中国AI的发展来看,不管是“六小龙”,还是几大云互联网厂商,在加上最近比较火的幻方,可能有十几个厂商,也面临着比较大的挑战。我们预测,这些企业的发展会加快创新,需要更高效率的利用硬件资源。”
目前,推理成本是大模型发展的一大挑战。“推理成本越来越高,等大模型推理出一个答案的时间太长了。这意味着推理设施必须改变,一是走向大型化、走向集群,一台不够就多台,但是多台不是简单放在一起就行了,因为内存是分开的。要把推理设施做大,一定要做到内存统一,也就是说这一台计算机的内存和那一台的放在一起,整个数据中心的设备、内存条都是一起用的,这样效率才上得来。”一位大模型计算产业人士解释道。
据悉,在降低推理成本方面,华为正在布局存算分离的技术。“现在推理分为两个阶段,第一个阶段对计算需求量非常大,第二个阶段则需要大量的内存。如果采用一模一样的机器,前面做计算、后面做内存,成本就会非常高。我们正在研究的是,第一阶段用计算型的设备做,后面用内存偏重的设备来做,把它们连在一块,就可以把推理的成本往下降。 ”