财联社
财经通讯社
打开APP
存力、封力短板补齐 英伟达算力喷发进入倒计时?
①英伟达计划将H100产量提高“至少两倍”,到2024年H100出货量将达150万-200万颗,同比增长200%-300%;
                ②机构预计,2024年用于AI训练的服务器出货量有望增加两倍。对于供应链而言,各环节(的需求)都是成倍的增长。

《科创板日报》8月23日讯(编辑 郑远方)就在今夜,AI产业链中“最亮的星”英伟达即将披露财报。业绩如何暂且按下不表,但困扰公司乃至整个产业链的产能瓶颈,或许即将解决。

而据《金融时报》今日报道,三位接近英伟达的消息人士透露,英伟达正计划将H100的产量提高“至少两倍”,到2024年H100出货量将达150万-200万颗——而今年英伟达H100的出货量预期将达50万颗,以此计算,明年出货量同比增幅高达200%-300%

全球都在排队等待英伟达的AI芯片。

报道中,浪潮信息的一位销售经理也坦言,客户要求快速交货,但供应端却跟不上速度。“二季度我们交付了100亿元的AI服务器,并另外获得了300亿元订单。最麻烦的是英伟达的GPU,我们永远不知道能拿到多少。

富士康上周预计,未来今年,AI服务器的需求都非常强劲,但今年服务器的整体收入将下滑。联想也表示,云服务厂商的需求正从传统计算机转向AI服务器,但后者供应遭受GPU供应限制。

之前也有供应链消息指出,英伟达AI GPU平台服务器需求飙升,但广达/云达、纬创/纬颖、技嘉旗下技钢、华硕与超微电脑等服务器供应商,却“有单出不了货”。

▌上游两大瓶颈同步加速扩产

当然,AI处理器短缺,“背锅”的不仅是英伟达本身,正如Counterpoint分析师Brady Wang所指出的,更上游的先进封装与HBM同样是产能瓶颈所在

一方面,尽管台积电现有CoWoS产线全开,下半年产能逐月拉升,依旧满足不了英伟达H100强劲需求。由于产能不足,其CoWoS订单更外溢至日月光、矽品与Amkor等同行。

为此台积电也在加速扩产。摩根大通指出,台积电CoWoS产能扩张进度将超出预期,明年底前产能翻扬至每月2.8万-3万片,并将在2024年下半年明显加速

而非台积电阵营的类CoWoS产能,也都在积极扩张中。Amkor此前提出明确的“类CoWoS”先进封装产能扩充计划。封测业内人士透露,2023年初Amkor 2.5D先进封装月产能约3000片,预期2023年底、2024年上半提升到5000片,2024年底力拼7000片的倍数成长水准。

机构指出,随着云服务供应商大力投入A,先进封装产能2024年有望增长30%-40%。

另一方面,英伟达GPU的HBM供应商则是三星与SK海力士,而这两家公司均已定下HBM扩产计划

其中,三星计划投资1万亿韩元(约合7.6亿美元)扩产HBM,目标明年底之前将HBM产能提高一倍,以满足英伟达与AMD的需求;公司已下达主要设备订单。

SK海力士也已着手扩建HBM产线,目标将HBM产能翻倍。扩产焦点在于HBM3,SK海力士正在准备投资后段工艺设备,将扩建封装HBM3的利川工厂。预计到今年年末,后段工艺设备规模将增加近一倍。

根据各家存储芯片原厂规划,TrendForce预估2024年HBM供给位元量将年增105%。不过,考虑到TSV扩产加上机台交期与测试所需的时间合计可能长达9-12个月,因此预估多数HBM产能要等到明年第二季才有望陆续开出。

▌算力硬件需求倍增

总体而言,AI热潮对整个算力硬件产业链都有着强势的带动作用。

Dell'Oro指出,AI服务器在整个服务器市场中的份额将从去年的7%上升到2027年的20%左右。

凯基证券预计,2024年用于AI训练的服务器出货量有望增加两倍。其补充称,对于供应链而言,各环节(的需求)都是成倍的增长

例如一台AI服务器有8个GPU,相较通用服务器,GPU模块的基板需求势必会猛增,同时AI服务器还需要更大的机架来放置处理器模块。

另外,与通用服务器相比,AI服务器中的PCB含量也有所增加。TrendForce预估,2023年搭载在A100、H100的PCB需求将同比增长86%,2024年将进一步成长,同比增幅有望达到64%。

人工智能 半导体芯片
财联社声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
商务合作
专栏
相关阅读
评论