①相较前两年,当前的智算中心建设有较为明显的转变,建设方或运营方都更为关注落地以及实际效果的产出。 ②机器狗、人形机器人、无人机(低空经济)、智能驾驶电动车、无人船等都会产生算力增量需求市场,以后的机器人口规模和增速会根本性改变当今区域算力竞争格局。
《科创板日报》6月10日讯(记者 黄心怡)近年来随着AI大模型的崛起,智能算力需求呈现出爆发式增长。但在算力建设热潮中,部分智算中心也会面临利用率不足,甚至出现局部算力闲置现象。
对此,《科创板日报》采访中科曙光等产业链公司获悉,国内整体算力基础设施建设依然会持续,从长期来看算力需求仍将走高,但行业关注点已发生显著变化,从单纯追求算力规模扩张,转向更注重实际应用场景的支撑能力,以及建成后的可持续运营效率。
同时,机器狗、人形机器人等具身智能领域也在催生新的算力需求。有业内人士认为,以后的机器人口规模和增速,会根本性改变当今区域算力竞争格局。
▍从追求规模到关注应用
随着人工智能技术的迅猛发展,全球范围内掀起了一股AI算力中心建设的热潮。从中国各地的“智算中心”项目密集开工,到美国科技巨头动辄数百亿美元的数据中心投资,算力基础设施成为新一轮科技竞赛的核心战场。美国还在今年宣布了一项名为“星际之门”的投资计划,旨在建设美国新一代AI基础设施,预计总投资将高达5000亿美元。
但是,这股热潮之下,业内也开始出现不同的声音。阿里巴巴集团主席蔡崇信等业内人士就曾警示“美国AI算力投资存在泡沫”。
对此,中科曙光高级副总裁李斌认为,所谓不足和过剩,是相对且动态变化的。“从长期来看的话,这个算力还是稀缺的,只是可能在某些阶段,算力会短期内存在过剩。这也是过去建设过程中更为关注算力规模,而对落地应用、运营和软件生态方面关注较少。但DeepSeek爆火出圈后,促进了大模型的行业应用落地。从长期来看的话,算力需求是继续往上走高。”
明确需求再投入建设的智算中心依然供不应求。《科创板日报》了解到,优刻得乌兰察布智算中心的需求比较紧俏,目前三期正式开始交付,交付的B栋建筑面积约23000平方米,机柜数量约为2300个,平均设计功率12kw,满足GPU等高性能设备的部署需求。知情人士对《科创板日报》表示:“我们对智算中心的建设和交付周期比较有信心,能满足不同类型客户对算力建设的要求。”
相较前两年,当前的智算中心建设有较为明显的转变,建设方或运营方都更为关注落地以及实际效果的产出。中科曙光智能计算产品事业部总经理杜夏威表示, “现在可能已经过了前两年的‘修路’阶段,而是转向关注垂直行业整合,以支撑具体的产业应用。从建设的角度上来看,对于算力的运营推广,以及最终的实际使用效果的关注度也越来越高。整体的算力建设应该还是会持续,但是会越来越多地关注算力最终展现的效果上,而不是再单纯地追求算力建设的规模。”
▍机器人、低空经济等催生新的算力需求
“过去的算力需求逻辑是,C端消费侧的算力需求由区域人口数量决定,而企业和政府的算力需求也与人口、智能化程度有正相关性。如今出现了新的变量。” 快思慢想研究院院长、《田丰说》机器人节目策划人田丰表示,“天文、可控核聚变、新材料、新医药等科研算力需求会调用大量算力,而机器狗、人形机器人、无人机(低空经济)、智能驾驶电动车、无人船等都会产生算力增量需求市场,以后的机器人口规模和增速会根本性改变当今区域算力竞争格局,比如新疆的机器人纺纱,西藏的自动驾驶物流车,云贵川的无人机植保等,都会涌现出大量算力需求。”
《科创板日报》也从中科曙光方面获悉,已经接到不少具身智能领域的新增需求,比如配合云计算厂商为智元机器人、宇树科技等构建存力基础设施。
曙光存储副总裁张新凤介绍,具身智能企业的核心需求包括几个方面。一是大量的感知数据采集。“具身智能企业需要处理海量的多模态数据,包括音频、视频、图片等格式,这些数据可能都是几十亿、甚至是数百亿的调取。如此大规模的数据处理能力需要什么样的技术,这带来了比较核心的挑战。目前来看,采用分布式对象技术来构建会比较合适。”
二是经过处理后的数据需要支持算法的迭代训练,这对系统性能提出了极高的要求。三是从公有云迁移到私有云的需求。“很多机器人企业在初期依赖于公有云服务,但随着业务规模的扩大,会开始把数据转移到私有云数据中心进行管理。”
▍液冷将成为AI算力基础设施的核心发展趋势
液冷技术并非新鲜事物,但AI算力的爆发将其推向了产业化的快车道。IDC数据显示,中国液冷服务器市场在2024年继续保持快速增长,市场规模达到23.7亿美元,与2023年相比增长67.0%。其中,冷板式解决方案市场占有率进一步提高。IDC预计,2024-2029年,中国液冷服务器市场年复合增长率将达到46.8%,2029年市场规模将达到162亿美元。
杜夏威对《科创板日报》表示,液冷技术很早就已实现,但进一步的爆发则是伴随着人工智能的火热。“由于人工智能对于强算力的诉求,尤其是现阶段主力的算力供给方式,还是围绕着加速器的形态,本身其热敏度就非常高。同时,AI大模型相关对于算力的需求量又非常大,两者叠加在一起,就反向推动了整个液冷基础设施的快速发展。液冷未来也会是人工智能领域算力基础设施的核心发展趋势。 ”
据悉,液冷技术可以细分为冷板式液冷、浸没式液冷等类型,适用于不同的用户场景。“比如,针对最高密度或者是最高端一体化部署,可能会采用浸没式的液冷。从成本的角度来看,在算力规模相对比较大的时候,浸没式液冷的优势更能够体现出来。而如果客户希望对机房改造变动小一点,那么可选择冷板式液冷做批量化交付。” 杜夏威介绍。