财联社
财经通讯社
打开APP
黄仁勋CES官宣:全新Rubin架构“性能高成本低”,下半年交付首批客户!
Play
语音播报
00:00
/
00:00
00:00
语音播报由AI生成
①英伟达在CES展会上宣布,其新一代Rubin数据中心产品即将面市,助力AI发展;
                ②Rubin架构由六款独立芯片组成,在AI模型训练任务上的运行速度是Blackwell架构的3.5倍,推理token生成成本降低至多10倍。

财联社1月6日讯(编辑 黄君芝)新年伊始,一年一度的“科技大秀”——拉斯维加斯消费电子CES展会拉开帷幕。而近几年来,CES已经成为前沿AI硬件概念的主要秀场,各类智能眼镜、可穿戴设备通过这个平台走进全球投资者和消费者的视野。

英伟达自然也不会放过这一机会。在今年的CES上,公司首席执行官黄仁勋宣布,英伟达公司备受期待的新一代Rubin数据中心产品即将在今年面市,届时客户将能够试用该技术,从而助力加快人工智能(AI)的发展进程。

黄仁勋介绍,全部六款全新的Rubin芯片均已从制造合作伙伴处取回,并且已经通过了一些关键测试,这表明这些芯片正按计划推进,可以交付给客户。

“人工智能的竞争已经拉开帷幕,”他说道,“大家都在努力迈向更高的阶段。”

黄仁勋的这番言论表明,英伟达作为人工智能加速器(数据中心运营商用来开发和运行人工智能模型的芯片)的领先制造商,正努力保持其领先地位。

据了解,Rubin架构以天文学家薇拉・鲁宾(Vera Rubin)的名字命名,由六款协同工作的独立芯片组成。该系统的核心是Rubin GPU,同时配备了专为“智能体推理”(Agentic Reasoning)设计的全新Vera CPU。黄仁勋将其定义为当前AI硬件领域的“最先进技术”。

根据英伟达官方测试数据,Rubin在AI模型训练任务上的运行速度是Blackwell架构的3.5倍,运行AI软件的性能则提升5倍。与Blackwell平台相比,Rubin可将推理token生成成本降低至多10倍,训练混合专家模型(MoE)所需GPU数量减少4倍。

与此同时,新平台配备的Vera CPU拥有88个核心,性能是其替代产品的两倍。这款CPU专为代理推理设计,是大规模AI工厂中能效最高的处理器,采用了88个定制Olympus核心(这是关键的数据处理单元)、完整Armv9.2兼容性和超快NVLink-C2C连接。

英伟达强调,基于Rubin架构的系统运行成本将低于基于Blackwell架构的系统,因为它们使用更少的组件即可实现相同的结果。该公司还表示,微软和其他大型云计算提供商将成为下半年首批部署新硬件的客户。

有媒体评论称,该公司今年比往年更早地公布了新产品的详细信息,是为了保持业界对其硬件的依赖,而这些硬件正是人工智能应用爆炸式增长的基石。英伟达通常会在春季于加州圣何塞举行的GTC大会上详细介绍产品。

华尔街一些人士担忧,英伟达面临的竞争日益激烈,人工智能领域的支出无法继续以目前的速度增长。数据中心运营商也在积极开发自己的人工智能加速器。但英伟达始终保持乐观的长期预测,认为人工智能市场规模将达到数万亿美元。

最后值得注意的是,英伟达公布的新硬件还包括网络和连接组件,将成为DGX SuperPod超级计算机的一部分,同时也可作为单独产品供客户以更模块化的方式使用。而这一性能提升是必需的,因为AI已转向更专业化的模型网络,不仅要筛选海量输入,还需通过多阶段流程解决特定问题。

环球市场情报 美股动态
财联社声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
商务合作
热门解锁
相关阅读
评论
发送
复制
取消
垃圾广告
政治激进内容
色情低俗内容
取消