您好,欢迎进入某某某某电动伸缩门有限公司官网!
开元棋牌- 开元棋牌官网- 开元棋牌APP下载

联系我们

邮箱:youweb@admin.com
电话:020-88888888
地址:广东省广州市番禺经济开发区 在线咨询

开元棋牌- 开元棋牌官方网站- APP下载万字长文丨现场直击黄仁勋GTC最新演讲:AI已全面进入推理时代英伟达要冲万亿营收

发布日期:2026-03-23 22:41 浏览次数:

  开元棋牌,开元棋牌官方网站,开元棋牌APP下载

开元棋牌- 开元棋牌官方网站- 开元棋牌APP下载万字长文丨现场直击黄仁勋GTC最新演讲:AI已全面进入推理时代英伟达要冲万亿营收

  北京时间 3 月 17 日凌晨,英伟达年度开发者大会(GTC 2026)正式启幕,42 号电波远赴美国圣何塞,全程直击现场,见证英伟达创始人兼 CEO 黄仁勋登台发表主题演讲。

  过去几年,随着 AI 应用的规模化落地,整个行业的需求开始快速从训练转向推理计算,AI 基础设施也正在进入「推理时代」。

  比如在去年 12 月在获得 AI 芯片初创公司 Groq 推理技术的授权后,本次黄仁勋推出的全新 Groq LPU(语言处理单元),就是为了提升推理效率。

  Groq 的 LPU 作为一种不一样的处理器,因其确定性数据流架构等方面的优势,天然适合低延迟的 Decode 和 Token 生成。而 GPU 在超高速 Token 生成的区间往往会有些乏力,这也是英伟达要做 Groq 3 LPU 芯片的一大原因。

  在经过英伟达 Dynamo 软件的捏合后,Vera Rubin + Groq LPU 的组合在高层推理层级让性能直接飙涨 35 倍,每兆瓦的吞吐量一样提升了 35 倍。

  在这方面,黄仁勋也透露,最新的 Groq 芯片由三星代工生产,并且基于 Groq 芯片的系统也将于下半年推出。

  当然,在硬件端最值得关注的还是 AI 计算平台,黄仁勋在现场展示了全新的 Vera Rubin 系统,在性能方面,Vera Rubin 依然有着巨大提升。

  7 颗芯片、5 台机架级计算机,计算能力比 10 年前提升 4,000 万倍

  黄仁勋表示,Vera Rubin Ultra 服务器将搭载 144 颗 GPU,目前,七款全新的 Vera Rubin 芯片已进入全面量产阶段。而对于未来的 Feynman 架构,黄仁勋则透露该架构则会采用定制高带宽内存(HBM)。

  值得一提的是,英伟达在这次大会上还带来了下一代图形技术 DLSS 5,其在 DLSS 5 引入了一种全新的实时神经渲染模型,可以为每一个像素注入具有照片级真实感的光照和材质属性。黄仁勋对此激动地表示:「DLSS 5是图形学领域的 GPT 时刻。」

  另外,针对近期异常火热的智能体 AI ,黄仁勋盛赞:「OpenClaw 是人类历史上最受欢迎的开源项目」。

  因此,英伟达也智能体 AI 量身打造了 Vera CPU,采用 LPDDR5 内存,其性能是传统 CPU 的两倍。黄仁勋认为这绝对是一个价值数十亿美元的业务,尽管他从来没想过会单独售卖 CPU。

  在 GTC 上,黄仁勋也宣布英伟达正式推出了 NemoClaw,这一个专为 OpenClaw 深度优化的部署工具链。其安装非常简洁,只需两行命令,部署成功后,NemoClaw 可以用来自动执行各类工作任务。

  黄仁勋并不掩饰,他透露英伟达的目标要让每一台 GPU 服务器都能无缝接入 OpenClaw 生态,把算力与 Agent 框架绑在一起。

  其实总体来看,这次 GTC 上,黄仁勋更想传递的信息是,英伟达要做 AI 时代的全栈基础设施供应商,而不仅仅是一家 GPU 公司。

  就像在本次大会前他发布的长文所说,AI 是如同电力和互联网一样至关重要的基础设施,尽管行业已投入数千亿美元,但未来仍需数万亿美元的持续投资来完善底层基础设施。

  在这条 AI 基建的路上,黄仁勋也显得自信满满,他表示,英伟达的目标是在 2025 年到 2027 年实现 1 万亿美元的营收。而在收入构成方面,60% 的业务来自超大规模云服务商。

  另外,在物理 AI 领域,黄仁勋还是像往常一样,他认为「真实世界的数据永远不够,我们需要来自 AI 与仿真的数据。」而在自动驾驶、Token 消耗等方面,黄仁勋也在演讲中进行了深入分析,以下是演讲全文,略经编辑。

  欢迎来到 GTC,我只想提醒大家,这是一场科技大会。这么多人一大早就排起长队,现场在座的每一位,很高兴见到你们。

  今天我们要聊技术,聊平台。英伟达有三大平台。你们可能觉得我们主要讲的是,其中一个和 CUDA-X 有关,我们的系统是第二个平台,而现在我们有了一个全新的平台,叫做 AI 工厂。我们会逐一介绍它们。而最重要的,是我们要聊聊生态系统。

  在正式开始之前,我要感谢开场环节的主持人。他们做得非常出色:Sarah Go,来自 Conviction;Alfred Lim,红杉资本,英伟达的第一位风险投资人;Gavin Baker,英伟达第一位大型机构投资者。

  这三位都深度扎根科技行业,洞悉行业趋势,当然,他们也拥有极为广泛的科技生态影响力。

  另外,我亲自邀请到场的所有贵宾、全明星阵容,也谢谢你们的到来。我还要感谢所有参展的企业。大家都知道,英伟达是一家平台型公司,我们拥有技术、拥有平台、拥有丰富的生态。

  今天现场,几乎涵盖了价值 100 万亿美元的全部产业。有 450 家企业赞助了本次活动,谢谢你们。1,000 场技术讲座、2,000 位演讲者。这场大会将覆盖人工智能五层架构的每一层:从土地、电力、机房,到基础设施、芯片、平台、模型,而最终、也是最重要的,是让整个行业腾飞的各类应用。一切都从这里开始。

  今年是 CUDA 诞生 20 周年。我们深耕 CUDA 已有 20 年。20 年来,我们始终专注于这一架构,这项革命性的发明:单指令多线程(SIMT)。编写标量代码,就能扩展为多线程应用,比单指令多数据(SIMD)容易编程得多。

  最近我们加入了瓦片(Tile) 架构,帮助开发者更轻松地使用张量核(Tensor Core),以及今天人工智能的基础数学结构。我们拥有数千种开源工具、编译器、框架和库,数十万个开源项目。CUDA 真正融入了每一个生态系统。

  这张图基本概括了英伟达 100% 的战略。从一开始,你们就看我讲这页幻灯片。而最终,最难实现的,是最底部的装机量。我们用了 20 年,在全球建立起数亿片运行 CUDA 的 GPU 和计算系统。我们进入了每一朵云、每一家计算机公司,服务几乎所有行业。

  CUDA 的装机量,是飞轮加速转动的原因。装机量吸引开发者,开发者创造新算法,带来技术突破。比如深度学习,还有很多其他突破。这些突破催生全新市场,围绕它们建立新生态,吸引更多公司加入,进而带来更大装机量。

  这个飞轮,如今正在加速。英伟达库的下载量增速惊人,规模巨大,增长速度前所未有。正是这个飞轮,让我们的计算平台能够支撑如此多应用、如此多新突破。更重要的是,它让这些基础设施拥有超长的使用寿命。

  原因很简单:在英伟达 CUDA 上能运行的应用实在太多。我们支持 AI 生命周期的每一个阶段,覆盖每一种数据处理平台,加速各类科学求解器。应用范围极其广泛,一旦装上英伟达 GPU,它的有效生命周期就会非常长。

  这也是为什么我们六年前推出的安培(Ampere)架构,如今在云上的价格还在上涨。而这一切,根本上都源于:装机量足够大、飞轮效应足够强、开发者覆盖面足够广。

  当这些条件具备,再加上我们持续更新软件,计算成本就会持续下降。加速计算极大提升应用速度,同时,我们在产品生命周期内持续优化、持续维护软件——你不仅能获得一次性性能跃升,还能在未来持续降低加速计算的成本。

  我们愿意维护全球每一块 GPU,因为它们架构兼容;我们愿意这么做,因为装机量足够大。每一次优化发布,都能惠及数百万用户,惠及全球每一个人。

  这种动态组合,让英伟达架构不断拓展边界,在加速增长的同时,持续降低计算成本,最终进一步推动新增长。而这一切的核心,就是 CUDA。

  但我们通往 CUDA 的旅程,其实始于 25 年前的 GeForce。我知道很多人是伴着 GeForce 长大的。GeForce 是英伟达最成功的市场推广。我们在你还没能力自己付费时,就吸引你成为未来的客户。是你们的父母,一次次为你们买单,年复一年,直到有一天,你们成为优秀的计算机科学家,成为我们真正的客户、真正的开发者。

  25 年前,我们发明了可编程着色器,一个当时完全反直觉的创造:让加速器可编程。这是世界上第一个可编程加速器,像素着色器。五年之后,20 年前,我们发明了 CUDA。

  当时我们投入了最大一笔赌注,甚至超出公司当时的承受能力,消耗了公司绝大部分利润——我们依托 GeForce,把 CUDA 带到每一台电脑上。我们全心打造这个平台,因为我们坚信它的潜力。

  尽管早期困难重重,但公司始终坚持,20 年间历经 13 代架构。如今,CUDA 已经无处不在。

  像素着色器带来了 GeForce 革命。大约十年前,我们推出了 RTX,为现代计算机图形时代全面重新设计架构。

  我们决定将可编程着色器与两项全新理念融合:硬件光追,这在当时难度极高;以及另一个全新想法——大约十年前我们就相信,AI 将会彻底变革计算机图形。

  就像 GeForce 把 AI 带给世界一样,如今 AI 要反过来,彻底改变计算机图形的实现方式。

  今天,我要向大家展示未来。这是我们下一代图形技术,我们称之为神经渲染(Neural Rendering)——3D 图形与人工智能的融合。这就是 DLSS 5。大家请看,是不是不可思议?计算机图形真正活了过来。

  我们做了什么?我们把可控的 3D 图形,虚拟世界的真实结构、结构化数据,记住这个词:虚拟世界、生成世界的结构化数据,与生成式 AI、概率计算结合。一边是完全确定、可精确控制;另一边是概率性、但高度真实。

  我们把两者融合,既通过结构化数据实现完美控制,又同时进行生成。最终的结果是:内容既精美、又可控。

  这种结构化信息 + 生成式 AI 的融合模式,将会在一个又一个行业重演。结构化数据,是可信 AI 的基础。

  这部分可能有点烧脑。我要翻到这张图,大家别倒吸一口气。接下来的时间,我们会围绕这张结构图展开。我每次问团队「我最重要的幻灯片是哪张」,他们总说:别放这张,黄仁勋,别放。但我偏要放。

  所有这些平台都在处理数据帧(DataFrame)。数据帧就像巨型电子表格,承载着现实世界的所有信息。这是结构化数据,是商业的真实基础,是企业计算的基石。

  过去,我们加速结构化数据,是为了处理更多、成本更低、每天运行更频繁,让企业运转更高效。而未来,这些数据结构将被 AI 使用,AI 的速度会比人类快得多。未来的智能体,也会使用结构化数据库。

  另一边,则是非结构化数据库、生成式数据库。它们占据世界信息的绝大部分:向量数据库、非结构化数据、PDF、视频、语音,每年产生的信息约 90% 都是非结构化数据。

  直到今天,这些数据对世界基本毫无用处:我们读一遍,存进文件系统,就结束了。我们无法查询、无法检索,因为很难为非结构化数据建立索引,你必须理解它的含义、它的目的。

  现在,AI 可以做到。就像 AI 实现多模态感知与理解,我们可以用同样的技术去阅读 PDF、理解语义,并将其嵌入可检索、可查询的结构中。

  英伟达创建了两个基础库:就像我们为 3D 图形创造 RTX 一样,我们为数据帧、结构化数据创造了 cuDF;为向量库、语义数据、非结构化数据、AI 数据创造了 RAFT。

  这两个平台,将成为未来最重要的平台之一。我非常激动看到它们在全球数据处理系统中被广泛采用。

  这个生态很复杂。数据处理行业历史悠久,拥有无数企业、平台和服务。我们花了很长时间,才深度融入这个生态。我为这里的工作感到无比自豪。

  今天,我们宣布多项合作:IBM——SQL 的发明者,史上最重要的领域专用语言之一,正通过 cuDF 加速 Watsonx.data。

  60 年前,IBM 推出 System/360,第一个现代通用计算平台,开启计算时代。随后是 SQL——一种无需逐行指令即可查询数据的声明式语言,以及数据仓库。这些都是现代企业计算的基石。

  数据是赋予 AI 上下文与意义的基础。AI 需要快速访问海量数据集,而今天的 CPU 数据处理系统已无法跟上需求。

  雀巢每天要做出数千个供应链决策,其订单至现金数据集市整合全球 185 个国家的所有供应订单与交付事件。在 CPU 上,雀巢一天只能刷新几次数据集市。而在英伟达 GPU 上运行加速后的 Watsonx.data,同样的工作负载速度提升 5 倍,成本降低 83%。

  戴尔是全球领先的计算机系统制造商,也是顶尖存储厂商,他们与我们合作打造 戴尔 AI 数据平台,集成 cuDF 和 RAFT,构建面向 AI 时代的加速数据平台。这里是他们与 NTT Data 合作的案例,性能提升巨大。

  接下来是谷歌云。我们与谷歌云合作已久。我们加速谷歌 Vertex AI,现在又加速 BigQuery——这是极为重要的框架与平台。这里是我们与 Snapchat 合作的案例:计算成本降低近 80%。

  加速数据处理、加速计算,你会获得速度、规模,最重要的是,成本优势。三者同时实现。

  这原本被称为摩尔定律:每两年性能翻倍。换句话说,只要价格基本不变,你每年就能获得近一倍性能提升,或持续降低计算成本。

  如今,摩尔定律已逐渐失效。我们需要新路径。加速计算让我们实现巨大飞跃。而且正如稍后你们会看到的:作为一家算法公司,我们持续优化算法;再加上我们覆盖面极广、装机量巨大,我们可以持续为所有人降低计算成本、提升规模、提升速度。

  英伟达打造了加速计算平台,上面承载着大量库:RTX、cuDF、RAFT 等等,后面还会介绍更多。这些库运行在我们的平台之上,并最终融入全球云服务、OEM 厂商以及其他平台,一起触达世界。

  我们与云服务商的关系,本质上是我们把客户带给他们。我们集成库、加速工作负载,把这些客户落地到云端。所以你们能看到,大部分云服务商都非常愿意和我们合作,总在要求我们把下一个客户带到他们的云上。

  我可以告诉大家:我们要加速的客户非常多,会有大量客户落地到你们的云端,请大家耐心等待。

  这是谷歌云。这是 AWS。我们与 AWS 合作已久。今年我特别激动的一件事是:我们将把 OpenAI 带到 AWS。这将极大推动 AWS 云计算的消耗,拓展 OpenAI 的算力边界。众所周知,OpenAI 完全处于算力紧缺状态。

  在 AWS,我们加速 EMR、SageMaker、Bedrock。英伟达已深度集成 AWS,他们是我们第一个云合作伙伴。

  微软 Azure:我们打造的第一台 A100 超算,就是为微软 Azure 部署的。这也促成了我们与 OpenAI 的成功合作。我们与 Azure 合作已久,如今 Azure 已成为他们的 AI 工场。我们深度合作,加速必应搜索,共同建设 Azure 区域。

  随着 AI 在全球普及,有一项能力至关重要:机密计算。在机密计算中,你要确保即使是运营商也无法查看你的数据、无法触碰或查看你的模型。

  英伟达 GPU 是全球首个支持这项能力的 GPU。如今,我们能够支持机密计算,安全部署 OpenAI、Anthropic 等高价值模型。这一切都归功于机密计算,它至关重要。

  这里是一些合作客户案例:新思科技,我们的重要合作伙伴,我们加速他们所有 EDA 和 CAE 工作流,并落地到微软 Azure。

  我们是甲骨文第一家 AI 客户。很多人以为我们是供应商,我们确实也是供应商,但我们首先是客户。我很自豪,是我第一次向甲骨文解释 AI 云。此后,他们发展迅猛,我们也把大量合作伙伴落地到甲骨文:CoreWeave、Cohere、Fireworks,当然还有非常知名的 OpenAI。

  我们与 CoreWeave 合作紧密。他们是全球第一家 AI 原生云,公司成立的唯一目的,就是在加速计算时代提供 GPU 托管、支撑 AI 云。他们拥有出色的客户,增长惊人。

  还有一个平台我非常激动:Palantir + 戴尔。我们三家共同打造了一种全新类型的 AI 平台:Palantir 本体平台与 AI 平台。我们可以在任何国家、任何隔离区域、完全本地部署、现场部署、甚至野外部署。AI 可以真正部署在任何地方。

  如果没有我们的机密计算能力,没有我们构建端到端系统的能力,没有我们提供从数据处理(向量、结构化)到 AI 的全栈加速计算,这一切都不可能实现。

  我想展示这些案例,说明我们与全球云服务商的独特合作关系。所有云服务商都来到了现场,我在巡展时也见到了大家,这令人无比激动。我想感谢所有人的辛勤付出。

  英伟达所做的,你们会反复看到这个核心:英伟达是垂直整合,但水平开放的公司——全球第一家。

  原因很简单:加速计算不是一个芯片问题,不是一个系统问题。加速计算,完整的说法其实是:应用加速。如果我能让一台电脑把所有程序都跑快,那叫 CPU,但这条路已经走到头了。

  未来,我们要继续实现巨大加速比、巨大成本下降,唯一路径就是应用级 / 领域专用加速。

  这就是为什么英伟达必须一个库接一个库、一个领域接一个领域、一个垂直行业接一个垂直行业地深耕。我们是一家垂直整合的计算公司,别无他法。

  我们必须理解应用、理解领域、理解底层算法,并且搞清楚如何把算法部署到各种场景:数据中心、云、本地、边缘、机器人系统。这些计算环境各不相同。最终,从系统到芯片,我们全部垂直整合。

  而它之所以无比强大,之所以刚才展示了那么多合作案例,是因为英伟达水平开放。我们愿意把英伟达技术集成到你们希望的任何平台,提供软件、提供库,与你们的技术对接,让加速计算惠及全球每一个人。

  本届 GTC 就是最好的证明。本届 GTC 参会人数占比最高的行业是金融服务。我希望来的是开发者,而不是交易员,各位。

  现场在座的,代表着英伟达生态的供应链上游与下游。过去一年,无论你是拥有 50 年历史的公司、70 年,还是 150 年,如今都成为英伟达供应链的一部分,与我们上下游合作。而且去年,你们都创下了业绩纪录,对不对?恭喜大家。我们正在开启一件真正伟大的事业。

  看向加速计算,我们已经搭建好计算平台。但要激活这些平台,我们需要领域专用库,解决我们所进入的每一个垂直行业的关键问题。

  金融服务:算法交易正从传统机器学习、人工特征工程(量化),转向由超算自主分析海量数据、自主发现洞察与模式,迎来深度学习与 Transformer 时刻

  AI 物理、AI 生物:用于药物研发;AI 智能体用于客服、诊断;物理 AI、机器人系统

  工业:我们正在重新定义并启动人类历史上最大规模的基础设施建设。全球绝大多数行业都在建设 AI 工厂、芯片工厂、计算机工厂,它们的代表都在现场

  媒体娱乐、游戏:实时 AI 平台,支持翻译、直播、游戏、视频,大量内容将由 AI 增强

  量子计算:35 家企业与我们共同打造下一代 cuQuantum GPU 混合系统

  机器人:50 万亿规模的制造产业。我们深耕该领域十年,打造构建机器人系统所需的三大核心计算机,与几乎所有机器人公司合作。本次展会有 110 台机器人现场展示

  电信:规模堪比全球 IT 行业,约 2 万亿美元。我们随处可见基站,这是上一代计算的基础设施。而未来,它将被彻底重构——现在只做基站业务的设备,未来会变成 AI 基础设施平台,AI 将在边缘运行。我们在该领域的平台叫 Ariel,与诺基亚、T-Mobile 等多家公司深度合作

  而我们业务的核心,就是刚才提到的一切:计算平台,以及至关重要的 CUDA-X 库。

  CUDA-X 库,是英伟达发明的算法。我们是一家算法公司,这是我们的核心优势,也是我能够进入每一个行业的原因。

  想象未来:让全球最顶尖的计算机科学家描述并解决问题,重构、重新表达,并转化为库。我们的库数量极多——本次大会我们将发布约 100 个库、70 个工具、40 个模型,而且这还只是展会期间。我们一直在持续更新。

  这些库,是公司的皇冠明珠。正是它们,让计算平台能够被激活,服务于解决问题、创造价值。

  我们创造过最重要的库之一:cuDNN。它彻底变革了人工智能,引爆了现代 AI 的大爆炸。

  你们刚才看到的一切,都是仿真。一部分是物理求解器,基础物理引擎;还有一部分是物理 AI、机器人模型等。

  这,就是英伟达的核心。正是通过理解算法,并与我们的计算平台结合,我们才能打开并释放这些机遇。

  英伟达是一家垂直整合的计算公司,同时对世界水平开放。以上,就是 CUDA-X。

  刚才你们看到了大量企业:沃尔玛、欧莱雅、摩根大通、罗氏、丰田,球规模最大的一批公司。

  同时,还有一大批你们从未听过的公司,我们称之为 AI 原生企业。大量初创公司,名单极其庞大,我只展示一小部分,甚至故意让你们看不清,这样就不会有人难过。

  但在这份名单里,是一批全新的公司:比如 OpenAI、Anthropic,还有很多很多,服务不同垂直领域。

  过去两年,尤其是过去一年,发生了巨变。我们与 AI 原生企业合作已久,而过去一年,呈现爆发式增长。我来解释原因。

  这个行业迎来爆发:1,500 亿美元风投资金涌入初创企业,人类历史最高。这也是历史上第一次,投资规模从几百万、几千万美元,跃升到数亿、数十亿美元。

  原因很简单:这是历史上第一次,每一家公司都需要海量算力、海量 Token。它们要么自己创建、生成 Token,要么整合 OpenAI、Anthropic 等机构产出的 Token 并创造价值。

  这个行业在很多方面都与众不同,但有一点非常明确:它们正在创造的影响、已经释放的巨大价值,是实实在在的。

  就像 PC 革命诞生一批新公司,互联网革命、移动与云革命也诞生一批新公司,每一代都有自己的标准。而我们正在见证一项至关重要的新标准诞生。这一代,同样会诞生一大批极具影响力、定义未来世界的重要公司——如同过去的谷歌、亚马逊、Meta。

  如你们所知,我们长期深耕深度学习与 AI。现代 AI 的大爆炸,我们就在现场,并持续推动领域发展。但为什么是过去两年?三件大事:

  ChatGPT,开启生成式 AI 时代。它不仅能理解、感知,还能翻译、生成,创造独一无二的内容。我刚才展示了生成式 AI 与计算机图形的融合,让图形活了过来。全世界每个人都应该使用 ChatGPT,我每天早上都在用。生成式计算,与传统计算完全不同。过去的计算是检索式,现在是生成式。记住这一点,后面你们就会明白:为什么我们做的一切,都在改变计算机架构、交付方式、建设方式,以及计算的本质。

  随后是 推理 AI(o1),再到 o3。推理能力让 AI 能够反思、思考、规划、拆解问题,把无法理解的问题拆成可理解的步骤。它能够基于事实进行思考,让生成式 AI 变得可信、基于真实。这让 ChatGPT 真正起飞,是一个极其重要的时刻。为了推理,模型需要的输入 Token、输出 Token 大幅增加,计算量急剧上升。

  然后是 Cloud Code,第一个智能体式模型。它能读文件、写代码、编译、测试、评估、迭代,彻底变革软件工程。如今英伟达 100% 的工程师都在使用 Cloud Code、Codex、Cursor 中的一种或多种。今天,没有任何一位软件工程师不被 AI 智能体辅助编码。Cloud Code 彻底变革了新一代开发。

  第一次,你不再问 AI「是什么、在哪里、什么时候、怎么做」,而是直接说:创造、实现、构建。

  你让它使用工具、读取上下文、处理文件。智能体 AI 能够拆解问题、推理、反思、解决问题、真正执行任务。

  从能感知的 AI,到能生成的 AI,到能推理的 AI,再到能真正干活、高生产力的 AI。

  过去两年,全球对英伟达 GPU 的计算需求一飞冲天,现货价格暴涨,一片难求。但与此同时,我们仍在巨量出货,而需求还在持续上涨。背后是有原因的。

  这个根本性的拐点终于到来:AI 终于能够进行高价值工作,因此,推理拐点已至。

  AI 的每一部分,每一次思考、推理、执行、生成 Token,都需要推理。

  现在早已不是训练阶段,而是全面进入推理时代。推理拐点到来的同时,所需算力、Token 量,提升了约 10,000 倍。 把两者结合:过去两年,工作所需计算需求提升 10,000 倍;使用量提升 100 倍。

  我常说,我相信过去两年计算需求提升了 100 万倍。这是我们所有人的直观感受,每一家初创公司、OpenAI、Anthropic 都有同感。

  只要能拿到更多算力,就能生成更多 Token,收入就会增长,更多人就能使用,AI 就会更先进、更智能。

  去年此时我站在这里说,截至 2026 年,Blackwell 和 Rubin 已拥有 5,000 亿美元高确定性需求与订单。我去年就说了这句话。

  我不知道你们是否有同样感受,5,000 亿是一个天文数字。但我知道你们为什么不惊讶,因为你们去年也都创了纪录。

  今天我要告诉大家:距离上一届 GTC 仅仅几个月后,站在今天这个时间点,我看到截至 2027 年,需求至少达到 1 万亿美元。这合理吗?这就是我接下来要讲的内容。

  过去一年我们做了大量工作。2025 年是英伟达的推理之年。我们希望不仅在训练和后训练阶段表现出色,在 AI 的每一个阶段都做到极致。这样,基础设施投资才能尽可能长期规模化,英伟达基础设施的使用寿命才能足够长,成本才能足够低。

  使用时间越长,成本越低。我可以毫无疑问地说:英伟达系统,是全球 AI 基础设施中成本最低的选择。

  去年,我们全力投入 AI 推理,推动了这个拐点。同时,我们很高兴看到 Anthropic 选择英伟达,Meta 选择英伟达。这些企业,加上开源模型,代表了全球约三分之一的 AI 算力。

  而英伟达,是目前全球唯一一个能够运行所有 AI 领域、所有 AI 模型的平台:语言、生物、图形、视觉、语音、蛋白质、化学、机器人、边缘或云端、任何语言。

  英伟达架构对所有场景都通用,并且表现极致。这让我们成为成本最低、确定性最高的平台。

  当你建设这些系统时,万亿美元是极其庞大的基础设施,你必须完全确信:投入的万亿美元能够被充分利用、性能强劲、极具成本效益,并且拥有可预见的超长使用寿命。在英伟达平台上做这些投资,你可以充满信心。

  我们已经证明,它是全球唯一一个能让你在全球任何地方、充满信心地建设的基础设施。

  你想部署在任何云,我们支持;你想本地部署,我们支持;你想部署在任何国家、任何地区,我们全力支持。我们已经成为运行全部 AI 的计算平台。

  我们的业务已经开始体现这一点:60% 的业务来自超大规模云厂商,前五家超算中心。但即使在这五家内部,也有大量内部 AI 消费:比如推荐系统从表格、协同过滤、内容过滤,转向深度学习与大模型;搜索转向深度学习、大模型。几乎所有超算工作负载,都在转向英伟达 GPU 极其擅长的领域。

  除此之外,因为我们与每一个 AI 实验室、每一个 AI 加速器、每一个 AI 模型合作,因为我们拥有庞大的 AI 原生生态,并把它们带到云端——无论算力需求多大、增长多快,都会被迅速消化。这部分占我们业务的 60%。

  剩下 40%,无处不在:区域云、主权云、企业、工业、机器人、边缘、大型系统、超算、小型服务器、企业服务器。系统数量惊人。AI 的多样性,就是它的韧性;AI 的覆盖面,就是它的韧性。

  去年我提到过,2025 年是我们的推理之年。我们全力以赴,冒了巨大风险:在 Hopper 正值巅峰、性能强劲之时,我们决定重新架构 Hopper 架构的 NVLink Switch,将其推向新高度。

  我们彻底重构系统,全面解耦计算系统,打造 NVLink 72。它的构建方式、制造方式、编程方式,全部改变。

  Grace Blackwell、NVLink 72 是一场豪赌,对所有人来说都不容易。现场很多合作伙伴,感谢你们的辛勤付出。谢谢。

  NVLink 72 支持 FP4 精度。这是一种全新的张量核与计算单元。我们已经证明,我们可以在无精度损失的情况下用 FP4 进行推理,同时获得巨大的性能与能效提升。我们也可以用 FP4 进行训练。

  NVLink、FP4、Dynamo、TensorRT-LLM 等一系列新算法,我们甚至打造了一台超算,帮助优化内核、优化全栈。我们称之为 DGX。我们投入了数十亿美元的超算能力,打造让推理成为可能的内核与软件。

  成果已经显现。有人曾经告诉我:推理很简单。其实推理是最难的,也是最重要的,因为它直接决定你的收入。

  下面这份结果,来自 SemiAnalysis,是有史以来最全面、规模最大的 AI 推理评测。

  左侧纵轴是 每瓦 Token 数(Tokens/W)。这至关重要,因为每一个数据中心、每一座工厂,天生都是电力受限的。1GW 工厂永远不会变成 2GW,受物理定律限制。

  在 1GW 数据中心里,你要驱动尽可能多的 Token——这是工厂的产品、产出。所以你希望尽可能处在曲线顶端。

  横轴是交互性、推理速度。推理越快,响应越快;更重要的是,推理越快,就能运行更大模型、处理更长上下文、思考更多 Token。这条轴,等同于 AI 的智能程度。

  这就是你们未来分析业务的方式。全球每一位 CEO,从今往后都会用我接下来描述的方式审视业务,因为这就是你的 Token 工厂、AI 工厂、收入来源。

  这是吞吐量,这是智能程度。在同等电力下,更高的性能每瓦,就能产出更多 Token。

  右侧是成本。你们可以看到,英伟达拥有全球最高性能,这并不意外。令人震惊的是:在短短一代里,摩尔定律通过晶体管只能带来 50%~2 倍提升,而我们从 Hopper 到 Grace Blackwell,性能每瓦提升 35 倍。

  因此,我们的单 Token 成本全球最低,无可匹敌。我之前说过:如果架构不对,就算免费,也不够便宜。

  因为无论如何,你都要建一座 GW 级数据中心、GW 级工厂。这座工厂 15 年折旧,成本约 4000 亿美元。就算什么都不放,也已经投入 4000 亿。你必须确保放上最优秀的计算系统,实现最优的 Token 成本。

  英伟达的 Token 成本全球顶级,目前几乎无法超越。原因就是极致协同设计。

  我很高兴他们给我们起了个名字:Token King(Token 之王)。

  就像我所说,我们垂直整合,但水平开放。我们把所有软件、所有技术整合,然后打包,集成到全球推理服务提供商。这些公司增长极快,Fireworks、Together 等,一年增长 100 倍。

  它们就是 Token 工厂。工厂的效率、性能、Token 成本产出能力,对它们而言就是一切。

  这就是极致协同设计的强大力量。我之前提到工厂的重要性。这就是关键:你的数据中心,过去是存放文件的数据中心,现在是生成 Token 的工厂。

  你的工厂天生受限,所有人都在争抢土地、电力、机房。一旦建成,就是电力受限。在电力受限的基础设施里,你必须确保推理——也就是你的工作负载,Token 就是你的新商品,算力就是你的收入——架构做到最优。

  未来,每一家云服务商、每一家计算机公司、每一家云厂商、每一家 AI 公司、每一家公司,都将思考 Token 工厂效率。这就是你未来的工厂。

  我之所以如此确定,是因为现场每一个人都由智能驱动。未来,这种智能将由 Token 增强。

  2016 年 4 月 6 日,十年前,我们推出 DGX,全球第一台为深度学习设计的计算机:8 片 Pascal GPU,第一代 NVLink,单台算力 170 TFLOPS。全球第一台为 AI 研究者设计的计算机。

  Volta 时代,我们推出 NVLink 交换机,16 片 GPU 全互联,像一台巨型 GPU 工作,巨大飞跃。但模型规模持续增长,数据中心需要成为一个统一计算单元。于是,迈络思加入英伟达。

  接下来是 Vera Rubin,为智能体 AI 全阶段打造,升级计算的每一支柱:CPU、存储、网络、安全。

  而 Vera Rubin,是一整套系统。当我们说起 Vera Rubin,我们指的是端到端垂直整合、软件深度优化的巨型统一系统。

  之所以为系统级设计,原因很明确:对智能体而言,最重要的工作负载就是思考。大模型越来越大,要更快生成更多 Token,以便更快思考;同时还要频繁访问内存,冲击内存、KV 缓存、结构化数据(cuDF)、非结构化数据(RAFT),对存储系统造成极大压力。

  AI 还要使用工具。与人类对慢速机器容忍度较高不同,AI 希望工具尽可能快。这些工具,未来可以是浏览器,也可以是云端虚拟 PC。这些计算机必须极致快速。

  它是全球唯一使用 LPDDR5 的数据中心 CPU,单核性能、能效比无与伦比。

  大家注意:从上一代开始,实现 100% 液冷,所有线缆消失。过去安装需要两天,现在只需两小时,制造周期大幅缩短。

  这台超算使用 45℃ 热水冷却,减轻数据中心压力,把原本用于冷却的成本与能源,释放给计算系统。

  这是我们的核心技术。我们是全球目前唯一一家打造出第六代纵深扩展交换系统的公司。这不是以太网,不是 InfiniBand,这是 NVLink,第六代 NVLink。难度极高。我为团队感到无比骄傲。

  NVLink,全液冷。这是 Groq 芯片,全球前所未见,这是第三代产品,现已大规模量产。稍后我会详细介绍。

  全球第一台 CPO(共封装光学)Spectrum X 交换机,现已全面量产。

  共封装光学,光模块直接集成在芯片上,电子直接转为光子,直连硅片。我们与台积电共同发明这项工艺,目前是全球唯一量产的公司,名为 Co-Packaged Optics,革命性技术。英伟达 Spectrum X 已全面量产。

  我们从未想过会单独销售 CPU,但现在确实卖得很多,这无疑将成为我们数十亿美元级业务。我为我们的 CPU 架构团队感到非常满意。

  这是 NVLink 机架,我之前展示过,非常重,似乎一年比一年重,大概是因为线越来越多。我们把这套高效的布线、结构化线缆技术,也用到了以太网上。这是以太网机架,单柜 256 个液冷节点,同样使用这些超强连接器。

  这个我肯定能举起来,但我就不举了,真的很重。这是一个计算节点,垂直插入 Kyber 机架。这里是连接口,顶部四个 NVLink 连接器插入中板,成为一个节点。每个机架都是不同的计算节点。

  最厉害的是这个中板。过去的铜缆连接有距离限制,现在这套系统可以连接 144 片 GPU。

  这是新一代 NVLink。同样垂直部署,连接后部中板。前部计算,后部 NVLink 交换机。一台巨型计算机。

  大家请看这张图。只有在英伟达的 keynote,你会看到去年的幻灯片再次出现。

  原因是:我想让大家记住,去年我告诉了你们一件极其重要的事,重要到值得再讲一遍。

  这可能是未来 AI 工厂、全球每一位 CEO 都会追踪、深度研究的最重要的一张图。实际情况比这更复杂,是多维的,但你们会长期研究:在同等电力下,AI 工厂的吞吐量与 Token 速度。

  这项分析,直接决定你的收入。你今年的投入,明年会精准反映在收入上。这张图,就是一切。

  因为我们现在能够提升 Token 速度,模型规模在增大,输入上下文长度从 10 万 Token 增长到数百万 Token,输出 Token 长度也在增长。所有这些,最终都会影响未来 Token 的定价与分层。

  Token 是新的大宗商品。像所有大宗商品一样,一旦到达拐点、走向成熟,就会分层:

  顶层:Premium 服务,极高 Token 速度,用于关键路径、长期研究

  我们相信,这就是未来。AI 必须从这里起步,建立价值、证明实用性,然后不断进化。未来,绝大多数服务会覆盖全部层级。

  这是 Hopper。大家原本预期下一代只会小幅上升,但没人想到会提升这么多。

  这和世界上任何产品都一样:层级越高,质量越高、性能越高,容量越低、体量越小。

  想象一下:在每一个层级,我们都提升了吞吐量。在最高 ASP、最有价值的 segment,我们提升了 10 倍。

  这背后是无数的艰苦工作,极度困难。这就是 NVLink 72 的价值,这就是极低延迟的价值,这就是极致协同设计的价值——我们能把整个区域向上抬升。

  你应该尽快用上 Vera Rubin,因为你的 Token 成本下降,吞吐量上升。

  芯片面积有限,计算机很难同时兼顾极高 FLOPS 和极高带宽。优化高吞吐和优化低延迟,本质上是矛盾的。

  而当我们与 Groq 结合后,情况变了。我们收购了 Groq 团队,获得技术授权,如今共同整合系统。

  在高吞吐区域,NVLink 72 革命性改变格局,架构恰到好处,即使加入 Groq 也难以超越。

  但如果你把横轴继续外推,需要的不是 400 Token/秒,而是 1,000 Token/秒,NVLink 72 就会遇到瓶颈,带宽不足。

  这时,Groq 就登场了。我们把性能推到 NVLink 72 都无法触及的区域。

  这就是 Groq 配合 Vera Rubin 的方式,进一步扩展性能与价值。

  我之所以被 Groq 吸引,核心原因:它的计算系统是确定性数据流处理器,静态编译,编译器调度——编译器提前规划数据何时移动、计算何时发生,数据与计算同时到达,全部静态提前调度,无动态调度。

  随着全球对高速、高智能 Token 需求持续增长,这种整合的价值会越来越高。

  要放下 Rubin 级别的参数规模与上下文、KV 缓存,需要大量 Groq 芯片。这限制了 Groq 走向主流——直到我们想到一个绝妙主意:

  想象一下:万亿参数模型,全部存在 Groq 芯片中;紧邻英伟达 Vera Rubin,存储智能体 AI 系统所需的海量 KV 缓存。

  这种能力让我们整合两套系统。我们在其上运行 Dynamo——AI 工厂的卓越操作系统。

  我要感谢三星,为我们生产 Groq LP 30 芯片,他们正在全力量产。非常感谢。

  Grace 早期因为 NVLink 72 整合复杂,样片阶段难度很高,但 Vera Rubin 的样片进展极其顺利。事实上,萨提亚已经发消息说,第一台 Vera Rubin 机架已经在微软 Azure 运行。我为他们感到激动。

  我们会持续大批量生产。我们已搭建每周可生产数千台系统的供应链,每月供应链内可支撑数 GW 级 AI 工厂产能。

  我们会全力生产 Vera Rubin 机架,同时生产 GB300 机架。全面量产。Vera CPU 极为成功,原因很简单:AI 需要 CPU 来使用工具,而 Vera CPU 完美命中这个最佳点,对下一代数据处理极为理想。

  全球 100% 的存储行业都在加入这套系统。因为他们看到了同样的未来:存储系统将被 AI 疯狂冲击。过去是人类使用存储、使用 SQL,未来是 AI 使用存储系统。

  惊人的是,在两年内,在 1GW 工厂内按照我们刚才展示的计算逻辑:摩尔定律只能带来几步升级,晶体管、算力、带宽翻几倍。而我们这套架构,能把 Token 生成速度从 200 万提升到 7 亿,提升 350 倍。

  Oberon:铜缆纵深扩展,同时可通过光纤纵深扩展到 NVLink 576

  每年,全新架构。短短几年间,英伟达从一家芯片公司,成长为 AI 工厂公司、AI 基础设施公司、AI 计算公司。我们现在正在建造整座 AI 工厂。

  这些 AI 工厂中有大量电力被浪费。我们希望确保这些 AI 工厂以最优方式设计、协同。

  过去,大部分组件供应商彼此不见面,直到进入数据中心才第一次相遇。这在建造超复杂系统时,是不可接受的。

  我们必须在虚拟世界提前协作。因此,我们创造了 Omniverse,以及 Omniverse DS World 平台——让我们所有人能在虚拟世界中,协同设计 GW 级 AI 工厂。

  我们拥有机架、机械、散热、电气、网络仿真系统,与生态伙伴的顶级工具集成;同时与电网联动,互相交互、调整电网与数据中心电力,节约能源;在数据中心内部,使用 Max-Q 动态优化系统,在电力、散热、各项技术之间动态调节,不浪费一瓦电力,以最优速率实现最大 Token 吞吐量。

  我可以肯定,这里面至少还有两倍的提升空间。在我们这个规模下,两倍就是天文数字。

  史上最大规模的基础设施建设正在进行。全球都在竞相建造芯片、系统与 AI 工厂。每延迟一个月,就会损失数十亿美元收入。

  AI 工厂的收入 = 每瓦 Token 数。在电力受限的情况下,每一瓦未被利用,都是收入损失。

  NVIDIA DSX 是基于 Omniverse 数字孪生的蓝图,用于设计与运营 AI 工厂,实现最大 Token 吞吐量、高可靠性与能效。

  当园区上线,数字孪生成为运营中枢。AI 智能体与 DS Max-Q 协同,动态编排基础设施:

  Phaedra 智能体监控冷却与电力系统,向 Max-Q 发送信号,持续优化计算吞吐量与能效

  通过 DSX,英伟达与生态伙伴正在全球加速建设 AI 基础设施,确保极高的可靠性、能效与吞吐量。

  是不是不可思议?Omniverse 旨在承载全球数字孪生,从地球开始,容纳各种规模的数字孪生。我们拥有强大的生态伙伴。感谢所有合作伙伴。很多企业几年前我们还互不相识,如今却紧密合作,共同建造人类历史上最大的计算机,并且在行星尺度上实现。

  我们已经进入太空。Thor 已通过辐射认证,用于卫星。未来,我们还会在太空建造数据中心。这显然非常复杂。

  我们正与合作伙伴打造全新计算机:Vera Rubin Space One,它将进入太空,开启太空数据中心。

  在太空,没有传导,没有对流,只有辐射。我们必须解决系统散热问题。我们有大量顶尖工程师正在攻关。

  OpenClaw 是人类历史上最受欢迎的开源项目,短短几周内,影响力超越了 Linux 30 年的积累。它的重要性,就是这么高。

  今天,我们宣布正式支持它。我快速展示一下:你只需要在控制台输入一行命令,它会自动找到 Open-Claw,下载,为你创建一个 AI 智能体,然后你就可以告诉它做任何事。

  Andrej Karpathy 刚刚启动了一个名为 research 的项目,这是一个大事件。你给 AI 智能体一个任务,然后去睡觉。它会在一夜之间运行 100 个实验,保留有效的,淘汰无效的。

  每个人都在谈论 OpenClaw,但 Open Claw 是什么?信不信由你,它已经是一个真正可用的系统了。我来用最直白的方式,让你们所有人都听懂 Open Claw 是什么。Open Claw 是做什么的?它负责连接。它是一套智能体系统。它可以调用、连接大语言模型。

  它有输入输出(I/O)。你可以用任何模态跟它交互:你跟它说话,它听得懂;你对它挥手,它看得懂;你想用任何方式都行。它会给你发消息、发短信、发邮件。它有完整的输入输出能力。

  所以说到底是什么?说白了:它就是一个操作系统。我刚才描述它的每一句话,都和描述一个操作系统一模一样。

  Open Claw 本质上开源了智能体计算机的操作系统。这就像当年 Windows 让我们每个人都能拥有个人电脑一样。今天,Open Claw 让我们每个人都能创造个人智能体。

  首先,它的普及速度已经说明一切。但更重要的是:现在每一家公司,每一位 CEO 都必须问自己:你的开源智能体战略是什么?就像当年我们都需要 Linux 战略;就像我们都需要 HTTP、HTML 战略,开启了互联网;就像我们都需要 Kubernetes 战略,才有了移动云。

  今天,全世界每一家公司,都必须拥有 Open Claw 战略和智能体系统战略。这是新一代计算机。

  而这,还只是激动人心的一部分。我们再看企业 IT。在 OpenClaw 出现之前,企业 IT 的逻辑是这样的:之所以叫数据中心,是因为那些大房间、大楼里存放的是数据:人的文件、企业的结构化数据。数据流经软件、工具、记录系统、各种工作流,最终变成给人用的工具,给数字员工用的工具。

  这是旧的 IT 行业:软件公司做工具、存文件。咨询公司帮企业用好这些工具、集成这些工具。这些工具对治理、安全、隐私、合规非常重要,这些价值依然存在。

  每一家 IT 公司、每一家企业、每一家 SaaS 公司,毫无疑问,都会变成一家 GaaS 公司:智能体即服务(Genetic AI as a Service)。

  而最厉害的是:OpenClaw 在最正确的时间,给了行业最需要的东西。就像当年 Linux 在正确的时间出现;就像 Kubernetes、HTML 准时出现。它让整个行业,能够握住这一套开源栈,然后放手去做创新。

  但有一个问题必须解决:企业网络里的智能体系统,可以访问敏感信息,可以执行代码,可以对外通信。

  你仔细想想:访问员工信息、供应链信息、财务信息等敏感数据,还能把数据发出去、对外通信。这显然是绝对不允许的。所以我们做了什么?我们和 Peter 合作,集结了全球顶尖的安全与计算专家,一起把 Open Claw 打造成企业级、安全、私有化的版本。

  现在它真正为企业就绪了。你可以下载、试用、接入。全球所有 SaaS 公司的策略引擎都非常重要、非常有价值。NeMo Claw 或带 Open Shell 的 Open Claw 都可以对接这些策略引擎,执行策略。

  这样一来,我们就能保护公司内部的智能体安全运行。我们还为智能体 AI 系统加入了很多能力,其中最重要的一项,就是让你拥有自己的定制化 Claw、定制化模型。

  世界是高度多样化的,没有一个模型能服务所有行业。开放模型是全球最大、最多样的 AI 生态之一。近 300 万个开放模型,覆盖语言、视觉、生物、物理、自动驾驶,让 AI 可以为垂直领域构建。

  英伟达是全球最大的开源 AI 贡献者之一。我们构建并发布六大系列开源前沿模型,还包括训练数据、训练配方、框架,帮助开发者定制、落地。我们的模型:

  今天,我正式宣布成立 Nemotron 联盟。我们投入了数十亿美元的 AI 基础设施,只为开发 AI 核心引擎,打造能激活全球每一个行业的 AI 模型。我们将与合作伙伴一起,让 Nemotron-4 变得更加强大。

  等等一大批顶尖公司。谢谢你们。我说过:全球每一家企业、每一家软件公司,都需要智能体 AI 战略,都需要开源战略。他们全都认同,并且正在与我们合作集成:

  一家接着一家,非常多。能和大家合作,我由衷感激。这是我们的时代。这是一场重塑,一场企业 IT 的文艺复兴。一个 2 万亿美元的行业,即将变成数万亿美元的行业。

  未来提供的,将不再只是给人用的工具,而是高度专业化的领域智能体,你可以直接「租用」。我完全可以想象:未来我们公司每一位工程师,都会有年度 Token 预算。他们年薪几十万美元,我可能再额外发给他等值几十万的 Token,让他的能力被放大。

  这甚至会成为硅谷招聘的福利之一:「这份工作附带多少 Token?」原因很简单:每一个能用上 Token 的工程师,都会变得更高效。

  而这些 Token,都来自我们与大家合作建造的 AI 工厂。今天,所有企业都建立在文件系统和数据中心之上。未来,每一家软件公司,都将是智能体 AI 公司。它们既是 Token 的使用者(给工程师用),也是 Token 的生产者(为客户提供)。

  OpenClaw 的意义,无法被低估。它的重要性,等同于 HTML,等同于 Linux。现在,我们拥有了世界级的开源智能体框架,也有了我们打造的优化、高性能、安全的参考设计:NeMoClaw。

  说到智能体,大家都知道,智能体要感知、推理、行动。我刚才讲的大多是数字智能体,在数字世界里行动、写代码。但我们也在物理实体智能体上深耕已久,我们称之为机器人。它们需要的 AI,是物理 AI。这里有几项重磅发布。

  展会上有 110 台机器人。全球几乎所有做机器人的公司,都在与英伟达合作。我们提供三大计算平台:

  我们拥有全栈软件、AI 模型,并融入全球生态。合作伙伴包括西门子、楷登(Cadence)等,遍布全球。今天我们宣布一大批新伙伴。

  在自动驾驶领域,我们深耕已久。自动驾驶的 ChatGPT 时刻已经到来。我们现在可以实现完全自动驾驶。

  今天,我们宣布英伟达 Robotaxi Ready 平台再添四家新伙伴:比亚迪、现代、日产、吉利。它们每年合计生产 1800 万辆车,加上之前的奔驰、丰田、通用……未来支持 Robotaxi 的车辆数量将极其庞大。

  我们同时宣布与 Uber 合作:在多个城市部署支持 Robotaxi 的车辆,并接入他们的网络。

  T-Mobile:未来的基站将变成英伟达 Ariel AI RAN,成为机器人化基站,智能推理流量、优化波束赋形、节能、提升质量

  这里有大量人形机器人,而我最喜欢的之一,是迪士尼机器人。全球首次大规模物理 AI 部署已经到来,那就是自动驾驶。有了英伟达 Alpamayo,汽车现在具备推理能力,可以在各种场景下安全智能行驶。

  我们让汽车描述自己的动作:「我正在向右变道,按规划路线行驶。」解释它的决策:「我这条车道有一辆违停车辆,我要绕过去。」并执行指令:「嘿,奔驰,能开快一点吗?」「好的,我加快速度。」

  这就是物理 AI 与机器人时代。全球开发者正在打造各类机器人。但现实世界极其多样、不可预测、充满边缘案例。真实世界数据永远不够,我们需要来自 AI 与仿真的数据。

  对机器人来说:算力就是数据。开发者在互联网规模视频与人类演示上预训练世界基础模型,用传统与神经仿真生成海量合成数据,大规模训练策略。

  演讲最后,迪士尼雪宝机器人登台和观众进行互动,最终在雪宝的见证下,黄仁勋在 GTC 2026 上的演讲,正式落下了帷幕。

  原标题:《万字长文丨现场直击黄仁勋 GTC 最新演讲:AI 已全面进入推理时代,英伟达要冲万亿营收》

  本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。

联系方式

全国服务热线

020-88888888

手 机:13899999999

地 址:广东省广州市番禺经济开发区

扫一扫,加微信

Copyright © 2012-2025 开元棋牌- 开元棋牌官网- 开元棋牌APP下载电动伸缩门有限公司 版权所有 非商用版本 备案号: