• 黄仁勋:推理拐点已至,2027年AI芯片将带来万亿美元收入

      发布时间:2026-04-17 19:07:46   作者:玩站小弟   我要评论
    吉林日报10月15日讯(记者李婷 毕雪)今天,北方六省区冰雪。

    当地时间3月17日,NVIDIA GTC 2026在美国圣何塞开幕,黄仁勋用一场信息密度极高的主题演讲,试图回答一个核心问题:当AI从“能生成内容”走向“能完成任务”,计算体系究竟要发生怎样的变化。他给出的答案是,AI产业正在进入一个以算力为核心资源、以系统工程为主导逻辑的新阶段,从芯片到数据中心、从软件框架到能源供给,整个技术底座都需要被重新组织。

    在他看来,生成式AI只是序章,更大的变革正在展开:一方面,具备自主规划与执行能力的“代理式AI”正在加速落地,开始承担越来越复杂的工作流程;另一方面,能够感知、理解并作用于现实世界的“物理AI”正在打开机器人与智能制造的新空间。这意味着,AI不再局限于屏幕中的问答与创作,而是逐步进入真实经济体系之中。围绕这一趋势,英伟达正推动软硬一体的全栈布局,试图把自己从一家芯片公司,转变为支撑AI时代运转的关键基础设施提供者。

    以下为黄仁勋接近2个半小时演讲的文字稿整理,小标题为译者所加,仅供读者参考。

    黄仁勋:

    ·“结构化数据”与“生成式人工智能”融合,将是构建“可信AI”的基础

    欢迎来到GTC。我想先提醒大家一句——这是一场技术大会。今天一大早就有这么多人排队入场,现在现场也座无虚席,很高兴见到大家。

    在GTC,我们要聊的是技术。我们会谈平台。英伟达有三个平台,很多人以为我们主要讲其中一个——跟CUDA-X数据科学库相关的。但其实,我们的系统本身就是一个平台。现在,我们又有了一个全新的平台——“AI工厂(AI Factories)”。今天,这些我们都会讲到。而最重要的则是生态系统(ecosystem)。

    在正式开始之前,我想先感谢刚才预热环节的几位嘉宾。他们做得非常出色。Conviction风投的Sarah Guo,红杉资本的林君叡(Alfred Lin),他也是英伟达最早的风险投资人之一;加文·贝克(Gavin Baker)——我们最早的重要机构投资者之一。这三位对技术的理解都非常深入,对整个技术生态的把握也非常广阔。当然,还有我亲自邀请来到现场的各位嘉宾。先从团队开始,我要感谢你们所有人。我也想感谢在场的所有公司。大家都知道,英伟达是一家平台型公司。我们有技术、有平台,还有非常丰富的生态体系。

    今天来到这里的,可以说涵盖了整个产业的核心力量——代表了这个价值100万亿美元行业中几乎100%的关键参与者。本次大会有450家公司赞助,设有1000场技术会议,2000位演讲嘉宾。在此深表感谢。

    这场大会将覆盖人工智能的“五层结构”——从土地、电力与机房等基础设施,到芯片、平台、模型,当然还有最重要的、真正推动整个产业起飞的各类应用。一切其实都始于这里。今年是CUDA诞生20周年。我们已经做CUDA整整20年了。这20年来,我们一直专注于这一架构——一个具有革命性的发明:SIMT(单指令多线程)。它的意义在于,你用类似标量(scalar)的方式写代码,就可以自然地扩展成多线程程序,其编程难度远低于此前的SIMD架构。

    最近,我们还引入了“tiles”(分块)等新机制,帮助开发者更好地编程张量核心(Tensor Core),以及那些如今在人工智能中至关重要的运算结构。围绕CUDA,我们构建了数以千计的工具、编译器、框架和开源库。现在开源社区中已经有几十万个公开项目。可以说,CUDA已经深度集成到每一个技术生态系统之中。

    黄仁勋展示的英伟达整体战略,装机基础——开发者——突破——生态系统的循环 视频截图

    这张图,基本上概括了英伟达的整体战略——从一开始到现在,我一直在反复讲述这一逻辑。而在这一体系中,最难建立、也是最关键的一环,是最底层的“装机基础”(installed base)。我们用了整整20年的时间,在全球范围内部署了数以亿计的GPU和计算系统,使CUDA得以运行其上。如今,我们已经进入所有主流云平台、覆盖几乎所有计算机厂商,并服务于各行各业。

    正是这一庞大的装机基础,驱动着整个体系的“飞轮效应”不断加速。装机基础吸引开发者,开发者推动新算法的产生,并不断带来技术突破——以深度学习为代表,这样的突破层出不穷。这些突破进一步催生全新的市场,吸引更多企业参与,形成更广泛的产业生态,从而反过来扩大装机基础。

    这一飞轮已经进入加速阶段。英伟达软件库的下载量正以极高速度增长,规模空前,且仍在持续扩大。正是这一机制,使得这一计算平台能够持续承载大量应用与创新。

    与此同时,这一生态也带来了一个关键结果——基础设施的使用寿命显著延长。原因在于,CUDA平台所支持的应用范围极其广泛。我们覆盖人工智能生命周期的每一个阶段,同时支持各类数据处理平台,并加速多种基于科学原理的计算方法。

    正因如此,一旦部署英伟达GPU,其可持续利用价值就会非常高。这也是为什么,例如六年前推出的Ampere架构,在今天的云计算市场中,其价格反而呈现上升趋势。这一现象的根本原因在于装机基础的规模、飞轮的加速以及开发者生态的广度。当这些因素叠加,并伴随着软件的持续迭代优化,计算成本便会不断下降。

    加速计算的价值不仅体现在初始性能提升,更体现在其“随时间递减的成本结构”。在系统部署之初,应用即可获得显著加速;而在整个生命周期内,随着软件持续优化,计算成本还会进一步下降。我们之所以能够持续投入并支持全球范围内的GPU,是因为这些系统在架构上保持兼容。每一次优化,都可以被大规模复用,直接惠及数以百万计的用户。

    正是这种机制,使得英伟达的计算架构在不断扩大应用边界的同时,实现性能提升与成本下降的同步推进,并最终形成对新需求和新增长的持续激励。CUDA无疑处于这一体系的核心,但英伟达的技术旅程,其实早在25年前就已经开启。

    这一切,要从GeForce说起。我知道你们当中有多少人和GeForce一起长大。可以说,这是英伟达历史上最成功的一次“市场教育”。我们从很早开始,就在培养未来的用户——在他们尚未具备付费能力之前。最初,是他们的父母为GeForce买单;而随着时间推移,这些用户逐渐成长为开发者、工程师,最终成为真正的客户与生态建设者。

    某种意义上,这是GeForce所奠定的基础——也是整个体系得以建立的起点。

    25年前,我们由此出发;20年前,CUDA诞生。再往前追溯,最关键的一步,是可编程着色器(programmable shader)的发明。这是一项在当时并不显而易见的创新——它首次让图形加速器具备可编程能力,诞生了世界上第一个可编程加速器:像素着色器(Pixel Shader)。

    这一突破,引导我们不断深入探索计算与图形的边界。五年之后,我们推出CUDA。这是公司历史上投入最为巨大的项目之一——在当时,这一投入甚至超出了公司的承受能力,占据了绝大部分利润。但我们依然坚持推进。依托GeForce的普及能力,我们将CUDA带入每一台计算机。之所以做出这一选择,是因为我们对其潜力有着极为坚定的判断。

    尽管早期困难重重,但我们持续投入、持续迭代,经历了13代架构、跨越20年时间。直到今天,CUDA已经成为无处不在的基础平台。在这一过程中,像素着色器推动了GeForce的崛起;而GeForce则将CUDA带向了全球。同时,也正是在这一平台上,研究者开始意识到GPU在深度学习中的潜力。以Alex Krizhevsky、Ilya Sutskever、Geoffrey Hinton以及Andrew Ng为代表的一批科学家,发现GPU能够极大加速神经网络训练——这直接引发了人工智能领域的“爆发式增长”。

    大约在十年前,英伟达进一步做出关键判断:将人工智能与计算机图形深度融合。为此,我们引入了两项重要技术方向——一是硬件级光线追踪(ray tracing),这是一个技术难度极高的系统性工程;二是一个在当时颇具前瞻性的判断:人工智能将彻底改变计算机图形的生成方式。

    如果说GeForce曾将人工智能带入主流计算平台,那么今天,人工智能正在反过来重塑整个图形学体系。基于这一判断,我们正在迈向下一代图形技术。这项技术,我们称之为“神经渲染扩散”(neural rendering diffusion),本质上是将传统3D图形与生成式人工智能进行深度融合。这一代技术的代表,即DLSS 5。其核心思想在于将两种截然不同的计算范式加以统一:一方面,是具备严格结构与可控性的3D图形系统,它提供虚拟世界的“真实结构数据”;另一方面,是基于概率模型的生成式人工智能,它能够生成高度逼真的内容。

    前者强调确定性与可控性,后者强调表达能力与真实感。通过将“结构化数据的精确控制”与“生成式模型的表达能力”相结合,我们实现了一种新的内容生产方式——既可控,又高度真实。最终呈现的结果,是计算机生成内容在视觉表现与控制能力上的同步跃迁。

    “结构化数据”与“生成式人工智能”的融合,将在一个又一个行业中不断重演。可以说,结构化数据是构建“可信AI”的基础。