反驳AI规模扩展速度放缓论 Nvidia黄仁勋称整个世界都判断错误

撰文: 格隆汇
出版:更新:

在2025年Nvidia(英伟达)GPU技术大会(GTC)的主题演讲中,公司行政总裁黄仁勋谈及人工智能(AI)的 “规模扩展法则”,认为在AI规模扩展速度正在放缓这一观点上,几乎 “整个世界都判断错误” 。事实上得益于新出现的规模扩展方法和技术,AI的发展速度正比以往任何时候都要快。

他又指出需要注意的是,AI规模扩展方面的成功,对于公司向AI模型开发者和服务器提供商大量销售图形处理器(GPU)的业务而言,是极为关键的核心要素。

英伟达(NVIDIA,又名辉达)行政总裁黄仁勋2024年6月2日在演讲时展示NVIDIA的Blackwell平台(Reuters)

亚马逊等今年已购入360万块Blackwell AI芯片

他亦表示美国四大公有云供应商﹕亚马逊、微软、Alphabet Inc.旗下谷歌和甲骨文,于去年购买了130万块公司前一代的Hopper AI芯片。2025年迄今,这一阵营已购买360万块Blackwell AI芯片,又预计2028年数据中心资本支出规模将突破1万亿美元。

谈及新产品时,他表示下半年将过渡至Blackwell Ultra芯片,并正与台积电合作开发联合封装光网络芯片,下半年将推出新版以太网芯片。下一次年度新推芯片将是Vera Rubin。下一次芯片升级将是Vera Rubin,距离现在还有一年时间。Rubin Ultra将于2027年的下半年推出。

2024年1月8日拍摄的插图中,图为美国科技公司辉达(Nvidia,又译英伟达)的置于电脑主机板之上。(Reuters)

新一代产品Feynman架构3年后登场

在一个路线图PPT中黄仁勋宣布,Rubin之后的下一代命名Feynman,取自著名物理学家理查德・费曼。理查德・菲利普斯・费曼(Richard Phillips Feynman,1918 年 5 月 11 日 — 1988 年 2 月 15 日),美国理论物理学家,以对量子力学的路径积分表述、量子电动力学、过冷液氦的超流性以及粒子物理学中部分子模型的研究闻名于世。因对量子电动力学的贡献,费曼于 1965 年与朱利安・施温格及朝永振一郎共同获得诺贝尔物理学奖。根据英伟达路线图,Feynman架构将于2028年登场。

此外公司正式发布Dynamo,号称是“AI 工厂的操作系统”。Dynamo是一个“分布式推理服务库”。本质上,它是一个针对用户需求token而无法生产足够token之间问题的开源解决方案。黄仁勋展示了一张关于推理的图表,X轴显示用户每秒的Token数,Y轴显示工厂每秒的Token数。在Dynamo、Grace Blackwell NVLink72超级芯片的加持下,Blackwell相比Hopper可实现25倍的性能提升。而在推理模型中,Blackwell的性能是Hopper的40倍。黄仁勋还打趣道,有了上述最新技术加持,搭建AI工厂的厂商“买得越多、省得越多”。