①据媒体报道,散热模组厂双鸿表示,得益于英伟达GB200等新型服务器导入液冷散热技术,公司2025年服务器营收将比今年大幅增长130%以上,整体营收可望增长50%以上。 ②西南证券认为,芯片功率提升、国家PUE标准趋严、AI服务器市场的快速增长驱动液冷行业发展。
SK海力士3月19日在一份声明中表示,公司已开始量产高带宽内存产品HBM3E,将从本月下旬起向客户供货。此外,近日,花旗发布报告称,预计美光科技将在2024年3月20日公布的第二财季(F2Q24)财报数据超出市场共识预期,主要是由于DRAM(动态随机存取内存)价格上涨以及与Nvidia AI系统配套的高带宽内存(HBM)出货量增加。花旗将美光目标价从95美元大幅调高至150美元。
AI大模型的兴起催生了海量算力需求,而数据处理量和传输速率大幅提升,使AI服务器对芯片内存容量和传输带宽提出了更高的要求,而HBM作为一种专为高性能计算设计的存储器,其市场需求激增。华福证券杨钟表示,HBM是AI芯片最强辅助,正进入黄金时代。与GDDR相比,HBM在单体可扩展容量、带宽、功耗上整体更有优势,相同功耗下其带宽是DDR5的三倍以上。因此,HBM突破了内存瓶颈,成为当前AIGPU存储单元的理想方案和关键部件。TrendForce认为,高端AI服务器GPU搭载HBM芯片已成主流,2023年全球搭载HBM总容量将达2.9亿GB,同比增长近60%,2024年将再增长30%。
据财联社主题库显示,相关上市公司中:
江波龙的内存条业务(包括DDR4\DDR5等)正常开展当中,公司具备晶圆高堆叠封装(即HBM技术的一部分)的量产能力。
华海诚科颗粒状环氧塑封料(GMC)可以用于HBM的封装,相关产品已通过客户验证。