打开APP
×
200亿美元!OpenAI押注“迄今为止最大”AI芯片 片上SRAM进入主流视野
科创板日报 张真
2026-04-19 星期日
原创
①OpenAI已与芯片设计商Cerebras达成协议,承诺在未来三年内支付逾200亿美元,以使用由后者芯片驱动的服务器。
②Cerebras最新一代晶圆级引擎是2024年发布的WSE-3,被称作“迄今为止最大的AI芯片。
半导体芯片
关注

《科创板日报》4月19讯 在大部分人的认知里,受摩尔定律和空间需求推动,芯片几乎总是越做越微小。OpenAI却用一笔订单证明,哪怕反其道而行,同样能在飞速狂奔的AI产业中争得一席之地。

据媒体报道,OpenAI已与芯片设计商Cerebras达成协议,承诺在未来三年内支付逾200亿美元,以使用由后者芯片驱动的服务器。除此之外,OpenAI还同意向后者提供约10亿美元的资金,以帮助其开发能够运行其人工智能产品的数据中心。

根据上述协议,OpenAI将有可能获得Cerebras约10%的的认股权证,并且其持股比例可能会随着对Cerebras投资的增加而提高。

交易本身不难理解,如今正值OpenAI“去英伟达”战略的关键期,即通过多元化硬件布局来减少对英伟达芯片的依赖。出人意料的是,Cerebras的技术路径与英伟达,甚至可以说与绝大多数AI芯片创企截然不同——既非通用GPU也非ASIC,而是专注“像餐盘一样大”的晶圆级引擎(WSE)

Cerebras最新一代晶圆级引擎是2024年发布的WSE-3,被称作“迄今为止最大的AI芯片。其内部集成了90万个计算核心、44GB片上内存和21PB的内存带宽,总面积达46225平方毫米,是英伟达B200的56倍。

其性能同样不容小觑,WSE-3包含4万亿个晶体管,相比B200拥有250倍的片上内存容量和2625倍的内存带宽。

▌片上存储

Cerebras的芯片设计思路是,将所有计算与存储资源整合于一块巨型芯片之上,以此破解数据搬运过程中耗时耗能的瓶颈。

具体而言,其采用静态随机存取存储器(SRAM),通过将数据直接存储在芯片上(即片上存储),从而减少数据在芯片与外部存储硬件之间来回传输的需求,而这一数据搬运过程正是英伟达等系统的潜在瓶颈之一。

资料显示,在SRAM中每个存储单元需4-6个晶体管组成触发器结构,只要持续供电,触发器就能稳定保持数据状态,无需额外的刷新操作。基于此,SRAM读写速度极快,访问时间仅约10纳秒甚至更低,访问速度远超DRAM。

Cerebras的WSE-3被部署在其CS-3系统中,多个多个CS-3系统连接起来可形成Cerebras AI超级计算机,作为单个逻辑计算机进行大规模训练和推理。据报道,OpenAI有望在2026至2028年把750MW规模的Cerebras芯片集成到其AI推理计算资源库中。

广发证券指出,SRAM架构已进入主流视野。根据Groq官网,其LPU单芯片内集成约230MB片上SRAM,存储带宽高达80 TB/s。根据Artificial Analysis的独立基准测试,Groq LPU芯片在不同上下文长度下均能维持稳定推理速度,达275-276token/s,显著优于其他推理平台。

从行业层面来看,3D堆叠方案有望为片上SRAM打开应用空间。

东方证券表示,片上SRAM存在工艺缩放比逻辑电路慢等问题,导致在单枚芯片上SRAM占用的面积较大、成本提升。基于此,部分投资者认为SRAM架构难以成为AI芯片内存的主要方案。

该机构认为,SRAM 3D堆叠方案可通过垂直堆叠存储单元的方法来提升密度以规避传统SRAM容量受面积密度限制的问题,可能在未来拓展应用。展望未来,若AI推理中需要实现更高容量的SRAM,3D堆叠方案有望拓展应用。

特别声明:文章内容仅供参考,不构成投资建议。投资者据此操作风险自担。
相关新闻
抄底成功
相关企业家
联系Ta
联系企业家
为保护双方个人信息请联系您的专属助理进行接洽
我再想想
点击复制
复制成功,请去微信添加