一场英伟达GTC,黄仁勋释放出三大信号

类别:业界动态  出处:中国电子报  发布于:2025-03-20 10:33:34 | 553 次阅读

  根据中国电子报报道,英伟达CEO黄仁勋迎着台下上万名观众的欢呼声,开启了2025年度GTC大会的主题演讲。
  没有预备发言稿,也没有提词器,但黄仁勋在两个多小时的演讲可谓“信息量爆炸”:Blackwell进展、AI市场判断、机器人、光电共封装CPO新品…… 这些备受业界关注的焦点,英伟达一件不落地给出了回应。
  显然,临场发挥的黄仁勋必须“有备而来”,抓住这一令全球目光聚焦的时刻,不仅亟需证明英伟达本身,更要证明英伟达对AI押下的赌注是正确的。
  信号一:Agentic AI时代,计算需求或将暴增
  拨开GTC演讲的大幕,黄仁勋也想释放出的信号与AI市场直接相关。
  人工智能真正进入全球公众视野,大约是在十年前。在这十年光景里,人工智能经历了不同阶段的变化。一开始是感知人工智能,包括计算机视觉、语音识别;接着是过去五年逐渐受到关注的生成式人工智能:在一个模态与另一个模态之间进行转换,例如文生图、图生文、文生视频。
  “生成式人工智能从根本上改变了计算的方式,从检索式计算模型转变为生成式计算模型。”黄仁勋表示。
  此次GTC大会,“Agentic AI”(代理式AI)成为英伟达频频提及的关键词。黄仁勋对其进行了解释:“Agentic AI”从根本上说,是指具备“自主性”(agency)的AI,它能够感知和理解环境的上下文,很重要的一点是它能进行推理,思考如何回答或解决问题,制定并执行计划,还能使用工具。黄仁勋认为,Agentic AI 的基础是推理。
  英伟达Dynamo 开源库加速并扩展 AI 推理模型“今年的GTC被称为AI界的‘超级碗’。的区别在于,在这场‘超级碗’里,每个人都是赢家。”黄仁勋做出如此比喻,透露出其对AI前景的乐观态度。
  以DeepSeek为代表的开源推理大模型的问世,曾一度令英伟达遭受资本市场的质疑。今年2月,黄仁勋首次正面表达了对于DeepSeek问世将利好英伟达未来的信心。在本次GTC大会上,黄仁勋再次对AI需求问题作出回应:
  “过去这一年,几乎整个世界在这方面都看走眼了。AI的计算需求及其扩展定律其实更具韧性,甚至可以说是超加速。由于Agentic AI、推理的出现,如今我们所需的计算量比一年前的预期至少高出100倍。”
  上述判断如何得出?答案藏在被英伟达视为人工智能基本构成单元的“token”身上。
  黄仁勋表示,现在我们有了能逐步推理的AI,它利用“Chain of Thought”(思维链)、取多种解法里和一致性检查等多种技术,一步一步地分解问题,进行推理。由此可以想见,AI所生成的token数量会急剧增多。
  那么,前文的“100倍”具体意味着什么?黄仁勋用数字给出解释:这也许是生成了100倍的token数量;又或者,模型本身更复杂,只生成10倍的token,但若想让模型具备交互性、实时性,就要把计算速度再提高10倍。这样一来,10倍的token、10倍的速度,就相当于需要100倍的计算量。因此,推理所需的计算量远超以往。
  信号二:芯片路线图按节奏推进
  如果AI计算需求持续呈倍数级增长,英伟达如何应对?
  “英伟达未来几年的路线图,大约保持一年的迭代节奏,就像时钟滴答一样稳定。”黄仁勋表示。
  借助今年GTC大会,黄仁勋提前透露了一张涉及未来几年的芯片架构路线图,将每年升级全栈AI系统、发布一条新产品线:2025年下半年推出Blackwell Ultra,2026年下半年推出Rubin,2027年下半年推出Rubin Ultra,预计2028年推出采用下一代HBM的Feynman平台。
  具体来看,英伟达于去年3月发布了AI芯片与超级计算平台Blackwell架构,并推出GB200芯片。此次黄仁勋表示,目前Blackwell已经全面投产。今年,Blackwell新一代芯片的正式名字为Blakwell Ultra。据悉,Blackwell Ultra由台积电N4P工艺的Blackwell GPU+Grace CPU+更大容量的HBM封装而来。英伟达表示,Blackwell Ultra也适用于AI智能体,以及用于训练机器人和汽车自动驾驶的“物理AI”。
  此外,英伟达公布了继Hopper、Blackwell之后的下一代GPU架构Rubin——以在暗物质研究领域取得突破性进展的天文学家Vera Rubin命名,以及Rubin Ultra的计划配置。据悉,Rubin平台拥有全新的CPU和网络架构,性能将是Hopper的两倍,且内存更大,将为AI应用提供更强大的支持。Rubin Ultra系统由Rubin Ultra GPU和Vera CPU组成。Rubin Ultra由4块掩模尺寸的GPU组成,拥有1TB HBM4e内存,FP4峰值推理能力可达100PFLOPS。
  值得一提的是,此次黄仁勋还宣布了Rubin之后的下一代AI芯片架构“Feynman”。该名称源自对量子计算领域有着重要贡献的科学家Richard Phillips Feynman。
  提前公布未来三年路线图的原因何在?黄仁勋给出的解释是,现在要建的是AI工厂,这需要多年规划。
  “这可不是买台笔记本电脑那么简单,也不是一笔随心所欲的支出,而是必须经过对土地、电力、资金、工程团队等各方面的长远计划。”黄仁勋在演讲中说道, “所以我们必须给出一个2—3年的预告,而不是等到某个月份突然说‘嘿,下个月又有一个超棒的新系统’”。
  信号三:关于未来还有更多“宏大叙事”
  AI行业并非一个单点,而是从技术到设施再到应用的一个立体面。因此,作为AI行业走在前面的那一批,英伟达的故事只讲“芯片”还远远不够。此次,黄仁勋从一些侧面传达出英伟达在整个AI产业链的布局。
  英伟达正式发布硅光网络交换机
  从上游技术层面来看,AI光通信时代背景下,数据中心规模持续扩大,带宽容量与高速数据传输速率的需求明显增加。光电共封装(Co-Packaged Optics,CPO)作为一种新型的光电子集成技术,受到产业界众多头部企业关注。此次,英伟达正式发布硅光子网络交换机Spectrum-X和Quantum-X,目的是推动AI工厂扩展到数百万GPU级别。值得关注的是,英伟达的硅光生态系统伙伴包括了台积电、康宁、Browave、Coherent等公司。
  “AI工厂是一种超大规模的新型数据中心,必须采用全新的网络基础设施才能跟上它的发展步伐。”黄仁勋表示,英伟达将硅光直接集成到交换机中,打破了超大规模和企业网络的旧有限制,为百万GPU AI工厂打开大门。”据悉,英伟达的硅光交换机创新地集成了光器件,减少了4倍的激光器数量,与传统方法相比,能源效率提高到3.5倍,信号完整性提高到63倍,大规模组网可靠性提高到10倍,部署速度提高到1.3倍。
  在下游应用层面,机器人赛道是当前人工智能应用中受关注的领域之一。此次的GTC大会,英伟达发布了全球开源且完全可定制的人形机器人基础模型Isaac GR00T N1,并推出加速机器人开发的仿真框架。其中,英伟达、谷歌DeepMind和迪士尼合作开发新一代开源物理引擎Newton,旨在加速人形机器人学习与开发。
  “物理AI和机器人正在飞速发展,可能会成为规模的产业。”黄仁勋表示,一切的核心挑战跟之前类似:数据从哪来、模型架构是什么、以及如何做扩展(scaling)。在机器人领域,同样需要能大量生成或获取数据,需要强大的算力来训练模型,以及让AI越训越强的扩展性。

关键词:英伟达

全年征稿 / 资讯合作

稿件以电子文档的形式交稿,欢迎大家砸稿过来哦!

联系邮箱:3342987809@qq.com

版权与免责声明

凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。

本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

维库芯视频>>

小泥鳅带你探访关税战下的华强北光宝(Liteon)一级代理商宏芯光电子

热点排行