①特斯拉、谷歌、微软、Meta、苹果和亚马逊都透露出一个共同趋势——为了AI,砸钱,再砸钱。 ②“微软每超额投资一年,就会对未来六年的利润率造成整整一个百分点的拖累。” ③AI的投资要看到回报,看到技术的广泛应用,还需要时间。
《科创板日报》6月20日讯(记者 郭辉) 国内首颗量产全功能DPU算力芯片面市。
昨日(6月19日),中科驭数第三代DPU芯片K2-Pro正式发布。K2-Pro是目前国内首颗量产全功能DPU算力芯片,产品主要面向未来数据中心和云原生环境并进行了定制优化。
据了解,在数据处理方面,K2-Pro包处理速率可达80Mpps,复杂服务网格性能从400微秒降至30微秒以内。通过PPP、NP内核及P4可编程架构,K2-Pro能够实现业务与同构算力、异构算力灵活扩展;在DPU复杂场景下,能耗较上一代降低30%。
在算网融合的技术发展与应用下,DPU等一类用于加速各种数据处理的产品,重要性凸显。然而与之伴随的是,DPU这一产品概念在近几年发展中受到不少争议,比如DPU与智能网卡功能与定位是否重合,英伟达等厂商对DPU的公开讨论越来越少是否意味着被战略性放弃等。
中科驭数CEO鄢贵海表示:“网中有算这件事情,只有DPU可以干,这样的负载类型不是单纯靠CPU能够处理。”据介绍,为应对行业趋势,中科驭数对DPU的定义跟设计也有相应变化,不再将DPU视为单一芯片,而是从先进芯片架构、高兼容性的软件生态、低成本部署及业务验证等三个维度重新定义其价值。
关于DPU在新的发展阶段的新思考,在发布会后,中科驭数CEO鄢贵海、CTO卢文岩、高级副总裁张宇接受了《科创板日报》在内的媒体采访。
国产DPU概念需要重新被定义
“DPU是进行算网融合的关键组件”。鄢贵海表示,如今DPU应用绝对不仅是卸载部分CPU负载那么简单,“有些任务——比如处理安全上的业务、做分布式安全机制等,不仅GPU干不了,CPU本身也不太能有效处理,而在DPU上做这件事情就会非常简单”。在中科驭数看来,DPU功能不仅需要提高算网的计算集群效率,同时还要求能够提高计算集群运维水平、提高集群整体算力规模。
算网融合是以通信网络设施和计算设施的融合发展为基础,通过计算、存储及网络资源统一编排管控,满足业务对网络和算力灵活泛在、弹性敏捷、智能随机应用需求的一种新型业务模式。
从两年前东数西算国家战略的引入,逐步到去年年底算力基础设施高质量发展行动规划发布,到今年各地智算中心全面铺开,算网一体化模式已深入众多产业的技术迭代和应用发展的大节奏之中。
其中,DPU也从以前服务器板卡的产品形态进一步发展,时至今日承担了越来越重要的算力来源支撑。
鄢贵海表示,DPU需要被重新定义,不能单纯只搞芯片这一件事情。DPU本身功能,如果还是与原来狭义理解的DPU负责卸载CPU负载的视角去看待,显然太过于局限。就像现在看计算机系统,应该要看整体的分布式集群性系统一样。“现在DPU也要逐步建立起软件的护城河,还要做好平台上门,用最低的成本让客户接入DPU规模化部署与业务验证,让DPU软硬件技术在云里面落地生根。”
民生证券研究报告观点认为,得益于智能网卡方案的逐步成熟,叠加全球通用服务器出货量的稳定增长、L3以上级别智能驾驶汽车的技术落地、工业控制领域的需求增加等原因,全球、国内DPU产业均有望实现快速发展。
DPU未来应用需进一步融入高算力节点
DPU的技术和功能价值过去也得到了英伟达这样的行业巨头认可。2020年,英伟达在GTC战略发布中将DPU定义为“第三颗主力芯片”。基于GPU、DPU和CPU三种新一代架构构建的NVIDIA加速计算平台,英伟达目标指向重塑AI时代的数据中心。
据了解,DPU由基础网卡进化而来,具有独立计算单元是DPU相较于普通网卡的主要特征,可通过ASIC/FPGA/SoC等技术实现。从核心功能来看,DPU主要是从CPU上卸载关键网络、存储、安全任务,以降低CPU的运算压力,从而提升整个数据中心的运行效率。
然而近两年DPU的定位和功能也受到一定挑战。最直观的感受是,英伟达如今已经很少公开单独谈论DPU了,而且国内涌现出来的主打DPU产品的厂商,也不如GPU/CPU的项目多。
鄢贵海认为,其中的缘由与英伟达自身的技术概念营销及产品方案策略有关,国外芯片巨头对其DPU产品形态和定位的调整依然值得关注。与此同时,在“大厂弊病”之下,这些巨头产品迭代节奏降缓,对于国内厂商来说反而是机会。
“2021年DPU热度达到高峰,到2022年行业形成聚力,再到2023年、2024年迎来产品大规模应用的关键阶段,其间英伟达逐步把原来狭义的DPU剥离了出来,并将DPU概念转移到到NV-Link上,只是不把NV-Link叫DPU,这更多是一种概念的营销。”
鄢贵海表示,英伟达在推产品时,基本是以集群的形式、以完整的高算力节点来作为产品形态。在DPU产品方面,英伟达并没有加以弱化,DGX里面仍然在部署DPU系统。
端侧加上DPU和已经非常完善的CX系列高性能网卡,“可以说全都是英伟达的王牌,但不会像之前一样全都亮出来”。鄢贵海认为,英伟达的一体化技术,重型行业游戏规则,对国内未来做算力或大规模芯片相关的厂商来说,是一个非常好的指向。
除英伟达外,英特尔与AMD两家芯片巨头亦有DPU项目的布局。其中,英特尔基础设施处理器(IPU)定位与DPU类似,是一种可编程的网络设备,可以管理存储流量,减少时延,同时通过无磁盘服务器架构有效利用存储容量,能够使云和通信服务提供商减少在CPU方面的开销,充分释放性能价值。AMD则在2022年以19亿美元收购Pensando并正式进军DPU领域,Pensando公司CEO和团队加入AMD的数据中心解决方案部门。
“英特尔IPU从定位上来看要更高,直接把基础设施作为DPU的定义其实是极其准确的。但是英特尔作为行业内的‘大象’,专属权力就是慢。”鄢贵海表示,虽然IPU定位很好、基础也不错,但是迭代非常慢,而AMD收购初创公司也有可能直接减慢其DPU项目发展。“对驭数来说,DPU的定义是集众家之长,真正还原DPU之于整个计算系统的意义。”
DPU的功能和应用范围都要多过传统网卡
智算中心的多点全面铺开也让智能网卡或以太网物理芯片的需求,成为业内众多厂商的创新和产业化竞争的焦点。目前浪潮、新华三、博通等厂商均有相关布局。
DPU的产品概念和技术特点,也被直接拿来与智能网卡进行对比。究竟孰优孰劣、是否会被取代,受到业内的关注和讨论。
面对争议,鄢贵海接受采访时认为,DPU不会被取代,其独特优势反而会在未来的智算中心建设中迎来需求放量。
“所谓的智算中心网卡,其功能来说在智算中心中要解决的核心问题是GPU之间、GPU跟存储之间的通信,但在解决GPU跟CPU路径中的带宽和数据流量的问题时没有那么显著。”鄢贵海表示,网卡主要解决网络数据进入后通过PCIe设备接入主机的过程,并不会对高带宽的要求进行特殊处理,这种情况下传统网卡不太适用于未来智算中心的网络接口卡位置。
在鄢贵海看来,DPU要支持类似于GBR、GBS的负载,其实就是给GPU之间、GPU和CPU之间的通信找到一条快速通路,这一通路要搭建在全新的网络设备接口上,而全新的网络接口就是DPU。因此,DPU的功能和应用范围都要多过传统网卡,“未来智算中心里面DPU用的量不仅不会少,还会越来越多。”
“当然,数据中心网络结构复杂,通常网络不可能只有一套”。鄢贵海也表示,未来不同网络可能要用不同的功能,比如运维、管控、监控用传统以太做,智算靠无损RDMA的网络。“这种情况下,在智算中心中有用传统网卡的需求,但是更大的需求、增长更快的需求,还是在高速网络、高速的RDMA及无损网络上。”