
出品 | 网易智能
作家 | 小小
剪辑 | 王凤枝

图片:黄仁勋在CES 2026演讲,来源:官网
“莫得计较,就生不能token;莫得token,就赚不到钱。”
在刚刚斥逐的英伟达2026财年第四季度财报电话会议上,公司首创东说念主兼首席履行官黄仁勋用这么一句直白的结论,轮廓了刻下AI行业的中枢买卖逻辑。
数据夸耀,英伟达各项财务经营依然强盛,季度收场营收681亿好意思元,同比增长73%,净利润大幅增长,毛利率保管在75%的高位。不外黄仁勋与首席财务官科莱特·克雷斯(Colette Kress)并未在历史财务数据上过多停留,而是将焦点全面转向了由“计较即收入”驱动的产业畴昔。
财报会上,黄仁勋指出,业界依然迎来了智能体的拐点。以Anthropic和OpenAI为例:前者的收入在一年内增长了10倍,但依然受制于算力容量瓶颈;后者一样面对浩大的算力需求。在Claude Code、Codex等智能体器具运行径企业创造推行经济价值确当下,云职业商能上线若干算力,就意味着能收场多快的收入增长。
撑抓这一宏大愿景的,是英伟达耐久构建的软硬件生态壁垒。会上露馅,即就是六年前发布的A100芯片,如今在云霄依然供不应求。这成绩于英伟达GPU架构的全面兼容性。恰是这种兼容性,使得英伟达勇于在软件工程上进行无数插足,因为任何一项最新的软件优化,都能惠及全球浩大的存量开拓,让老架构也能吃到新本事的红利。
此外,汇注业务已成为英伟达基础设施领土的关键一环。进入以太网交换市集仅两年,英伟达正迅速确立其全球率先地位。
面对分析师对“75%高毛利率能否抓续”的疑问,黄仁勋的回复聚焦于本事迭代:撑抓高毛利率的中枢能源,是抓续为客户带来跨代际的性能飞跃,创造远超系统成本的价值。
在黄仁勋的推演中,继刻下的智能体AI海浪之后,下一波将是深切制造业和机器东说念主领域的物理AI。此外,黄仁勋还在会上揣测了“天际计较”的图景。他坦言,尽管目前天际数据中心的经济效益欠佳,且面对无空气流动、无法使用液冷等严苛的物理散热挑战,但畴昔前景繁花。

图片:黄仁勋在GTC演讲,来源:英伟达官网
以下为英伟达财报会议实录
开始是黄仁勋开场演讲:
本季度,咱们显贵深化并扩展了与率先前沿模子制造商的调解伙伴关联。咱们最近共同庆祝了OpenAI推出GPT-5.2 Codex,该模子的磨练和推理均依托于Grace Blackwell和NVL72系统进行。GPT-5.2 Codex能够处理波及辩论、器具使用和复杂履行的耐久间运行任务。5.3 Codex也已在英伟达里面豪放部署。咱们的工程师相当可爱它。咱们正不竭鼓吹与OpenAI的调解公约,并信托距离最终达成已近在目下。对于能与OpenAI抓续调解,咱们感到无比激动。这是一家划时间的公司,能够从其创立之初便与之联袂,咱们深感荣幸。
Meta超等智能实验室正在以闪电般的速率彭胀。上周,咱们文书Meta正在部署数百万个Blackwell和Rubin GPU、NVIDIA CPU以及Spectrum-X以太网,用于磨练和推理。
本季度,咱们还文书与Anthropic建立调解伙伴关联,并向其投资100亿好意思元。Anthropic将在Grace Blackwell和Vera Rubin上进行磨练和推理。Anthropic的Claude Cowork智能体平台具有创新性道理,为企业的AI应用掀开了闸门。在Claude Cowork和OpenClaw之间,计较需求正在赶快增长。
通过与Anthropic、Meta、OpenAI和xAI的调解,英伟达已全面隐蔽整个云平台。同期,凭借咱们从零运行构建全栈AI基础设施以及在云霄提供全面支抓的才能,咱们占据着后天不良的上风,能够在磨练、推理以及AI工场领域化扩展等各个阶段,与前沿模子构建者深度调解。
临了,咱们近期与Groq就其低延迟推理本事达成了非排他性许可公约,并迎接一支顶尖的工程师团队加入英伟达。正如咱们当年会通Mellanox一样,咱们将依托Groq的创新来拓展英伟达的架构领域,将AI基础设施、性能和价值推向全新高度。
分析师问答要领:
好意思国银行证券分析师维韦克·阿里亚(Vivek Arya):感谢您收受我的发问。您刚才提到,目前对进入2027年的增长已具备流露的能见度,而您的采购承诺显着也印证了这种信心。仁勋,我很兴趣,当您注目您最大的云职业客户时,本年他们的云老本支拨已接近7000亿好意思元,许多投资者惦记来岁很难不竭保管这一增速,而且其中几家企业产生现款流的才能也正面对压力。我知说念您对我方居品门路图和采购承诺等相当有信心,但您对客户是否有才能抓续增长其老本支拨,有多大信心?若是他们的老本支拨不再增长,英伟达能否仍在现存的预算范围内找到增长旅途?谢谢。
黄仁勋:我对他们现款流的增长有信心,原因很纰漏:咱们依然看到了智能体AI的拐点,以及智能体在全球各地企业中展现出的巨大实用性。正因如斯,你看到了令东说念主难以置信的计较需求。在这个AI新寰球里,计较就是收入。莫得计较,就生不能token;莫得token,就赚不到钱。在这个AI新寰球里,计较就等于收入。此时此刻,我确信,跟着Codex和Claude Code插足坐蓐使用,以及业界对Claude Cowork充满期待,还有全球对OpenClaw偏激企业版块抱有极高关爱,整个企业级ISV(孤立软件开发商)当今都在其器具平台之上开发智能体系统。
当今,我确信咱们不仅正处于拐点,更依然跨过了这说念分水岭。咱们正在生成成心可图的token,这些token不仅能转动为客户的坐蓐力,对云职业提供商来说也一样成心可图。其背后的纰漏逻辑与想考形势是:计较范式依然篡改。曩昔咱们是在计较机上运行软件,需要一定例模的计较机数目,姑且称之为每年3000至4000亿好意思元的老本支拨,而当今这些资金依然全面插足到AI中。对于AI来说,为了生成token,你需要计较才能,而这奏凯转动为增长,也奏凯转动为收入。
摩根士丹利分析师乔·摩尔(Joe Moore):好的,谢谢,道贺你们取得优异的事迹。您刚才谈到了你们对Anthropic以及可能对OpenAI、CoreWeave所作念的一些策略投资,以及与英特尔、诺基亚、新想科技等伙伴的调解。很昭着,你们正处于通盘行业的中心。您能否谈谈这些投资阐明的作用,以及您如何看待利用钞票欠债表行为器具,来增强英伟达在生态系统中的地位并从等共享增长红利?
黄仁勋:英伟达一切的中枢是咱们的生态系统。恰是由于咱们生态系统的丰富性,全球才如斯小心咱们的业务。寰球上险些每一家初创公司都在英伟达的平台上进行开发。咱们存在于每一朵云和每一个土产货数据中心之中。咱们的萍踪遍布全球的边际和机器东说念主系统。千千万万的AI原生公司建立在英伟达的基础架构之上。咱们但愿利用这一新计较时间、这一新计较平台退换开端所带来的巨大机遇,让整个东说念主都能使用英伟达的平台。一切都依然建立在CUDA之上,因此,咱们领有一个相当好的源泉。
在咱们构建通盘AI生态系统的过程中,不管是语言AI、物理AI,如故AI物理学、生物学、机器东说念主本事或制造业,咱们都但愿将整个这些生态系统都建立在英伟达之上。这对咱们来说是一个绝佳的契机,可以对涵盖通盘本事栈的生态系统进行投资。咱们的生态系统如今也比曩昔愈加丰富。曩昔,咱们主要提供基于GPU的计较平台,但当今咱们是一家AI计较基础设施公司,咱们在各个维度上都有计较平台。从计较到AI模子,再到汇注和DPU,整个这些之上都有对应的计较本事栈。
正如我之前提到的,不管是在企业、制造业、工业、科学如故机器东说念主领域,这些生态系统中的每一个都有不同的本事栈,咱们但愿确保抓续投资于咱们的生态系统。咱们的投资导向相当明确,那就是策略性地专注于扩大和深化咱们生态系统的隐蔽范围。
J.P.摩根分析师哈兰·苏尔(Harlan Sur):汇注业务在您合座数据中心业务中的占比抓续上升。通盘26财年,您的汇注收入每个季度都收场了同比加快增长,对吧?正如您提到的,第四季度同比增长达到了3.6倍。显着,这成绩于你们在纵向扩展(Scale-up)和横向扩展(Scale-out)汇注居品组合上的矫健实力。我牢记前年上半年,你们Spectrum-X以太网交换平台的年化运行率约莫在100亿好意思元左右。看起来,前年下半年可能依然进步到110亿至120亿好意思元的水平。Jensen,从你们的订单储备来看,至极是跟着Spectrum-XGS以及行将推出的102T Spectrum-6交换平台的面世,Spectrum目前的发展势头如何?以及您对本年斥逐时的预期是什么?
黄仁勋:如你所知,咱们将我方视为一家东说念主工智能基础设施公司,而东说念主工智能计较基础设施包括CPU和GPU。咱们发明了NVLink,将单个计较节点扩展成一个巨大的计较机架。咱们发明了“机架级计较机”的认识。咱们委用的不是计较节点,而是整机架的计较系统。这个基于NVLink交换机的纵向扩展系统,随后会使用Spectrum-X和InfiniBand进行横向扩展。这两种本事咱们都支抓。咱们还使用Spectrum-X横向扩展本事跨数据中心进行扩展。咱们将汇注视为计较的当然蔓延。咱们以绽放的姿态提供一切,以便客户可以凭据不同的领域解放组合,或者以他们可爱的任何形势将其集成到定制化的数据中心中。
归根结底,这都是咱们平台至关弥留的构成部分。NVLink的发明如实极地面推动了咱们汇注业务的发展。每个机架都配备了九个交换节点,每个节点有两个芯片,畴昔还会有更多。咱们在每个机架内收场的交换量如实令东说念主难以置信。咱们当今亦然全球最大的汇注公司。若是单看以太网,咱们约莫在两年前进入以太网交换市集,我认为咱们今天可能依然是全球最大的以太网汇注公司了,而且很快就会透彻确立这一地位。Spectrum-X以太网对咱们来说是一个巨大的成效。你知说念,咱们对于客户但愿如何构建汇注遥远抓绽放作风。
{jz:field.toptypename/}有些东说念主相当可爱InfiniBand的低延迟和扩展才能,咱们虽然会不竭支抓。另有些东说念主可爱基于以太网跨数据中心集成他们的汇注。咱们创造了一种全新的以太网才能,在数据中心内通过东说念主工智能处理形势拓展了以太网的领域,在这方面咱们相当擅长。咱们的Spectrum-X性能如实解说了这少许。当您建造一个价值100亿或200亿好意思元的东说念主工智能工场时,汇注灵验性和利用率上很容易产生20%的互异,而这些互异都会转动为实着实在的收益。
英伟达的汇注业务如实增长迅速,但我认为这只是是因为咱们如斯灵验地构建了东说念主工智能基础设施,而东说念主工智能基础设施业务自己的增长也一样快得令东说念主难以置信。
Cantor Fitzgerald分析师CJ·缪斯(CJ Muse):我想,鉴于CPX被用于大高低文窗口,而Groq可能会增多一个畸形针对解码的处分决策,我很兴趣咱们应该如何看待你们畴昔的门路图。咱们是否应该议论将定制化芯片(不管是按责任负载如故按客户定制)行为英伟达日益关注的焦点,至极是成绩于你们向小芯片架构的退换?相当感谢。
黄仁勋:每个东说念主都应该尽可能推迟汲取小芯片架构。原因在于,每次杰出小芯片领域,你都不得不杰出一个物理接口。每次杰出接口,都会增多延迟,并带来不消要的功耗。咱们并不扼杀小芯片,事实上咱们依然在使用了,但咱们只在统统别无聘请的情况下才使用。若是你望望Grace Blackwell架构和Rubin架构,米兰咱们使用了两个巨大的达到掩膜版尺寸极限的裸片,并将它们无缝拼接,这减少了跨架构通讯的开销。小芯片带来的非凡开销,正体当今竞争敌手架构的低效上。
若是你望望英伟达,东说念主们常说这是咱们的软件上风,但是,你知说念,软件的领域在那边,硬件架构的源泉和绝顶又在那边,这很难证明晰。咱们的软件之是以灵验,是因为咱们的架构如斯出色。毫无疑问,CUDA架构比现存的任何计较架构都更灵验、更高效,能提供更高的每浮点运算性能和每瓦性能,这归功于咱们的架构遐想形势。对于咱们如何看待Groq和低延迟解码器,我有一些很棒的宗旨想在GTC上与全球共享。简而言之,由于CUDA的存在,咱们的基础设施具有极强的通用性,咱们将不竭保抓这一上风。
你知说念,咱们整个的GPU在架构上都是兼容的,这意味着,当我今天悉力于为Blackwell优化模子时,整个这些悉力于优化软件栈和新模子的责任,也一样能使Hopper和Ampere受益。这就是为什么A100在咱们将其部署到全球多年后,仍然容或活力,并保抓高性能的原因。架构兼容性使咱们能够作念到这少许。它使咱们能够对软件工程和优化进行巨大投资,因为咱们知说念,咱们在通盘云霄、土产货、各处、杰出几代架构的GPU装机量都将受益。咱们将不竭这么作念,这不仅使咱们能够延长硬件的使用寿命,更使咱们能够领有创新力、生动性和速率,从而转动为性能,以及对咱们的客户来说相当弥留的每好意思元性能和每瓦性能。
对于Groq,咱们将在GTC上揭晓更多细节,但咱们会作念的是,将Groq行为一个加快器来扩展咱们的架构,就像咱们当年会通Mellanox来拓展英伟达的架构一样。
伯恩斯坦分析师斯西洋·拉斯冈(Stacy Rasgon):科莱特,我想略微深切探讨一下对于全年环比增长的表述。我的真谛是,你们本季度数据中心业务环比增长了杰出100亿好意思元,而指令似乎示意,这新增的100亿好意思元环比增长中,绝大部分仍将来自数据中心业务。你如何看待本年的情况,至极是跟着Rubin鄙人半年运行量产爬坡?Blackwell对环比增长来说是一个很是大的加快。当咱们迎来Rubin时,是否也能期待访佛的情况吗?我也但愿你谈谈对游戏业务的预期。我会通这受制于内存供应等问题。你认为在27财年,游戏业务还能同比增长吗?如故说由于内存问题,它会面对更大压力?
克雷斯:我先从畴昔的收入预期运行回答。再次强调,咱们倾向于逐季度地看待收入情况。议论到全年,咱们统统会不竭销售和委用Blackwell,与此同期,全球也将看到Vera Rubin进入市集。这是一个相当出色的架构,能够匡助客户快速部署,况且依然策动好了不同客户的许多不同订单。当今判断Vera Rubin的初期量产爬坡鄙人半年会有多大还为时过早,咱们会逐步了解。对于强盛的需乞降意思,这少许毫无疑问。
咱们揣测险些每个客户都会购买Vera Rubin。问题在于,咱们的居品多快能推向市集,以及客户多快能在数据中心里面署起来?这是对您第一部分问题的回答。第二部分是对于咱们的游戏业务。尽管咱们很想提供更多的供应,但咱们如实认为,畴昔几个季度的供应将相当着急。若是到年底情况有所改善,那么就有契机收场同比增长的情况。现鄙人定论还为时过早,咱们会尽快向你们同步最新进展。
花旗银行分析师阿蒂夫·马利克(Atif Malik):感谢您回答我的问题。仁勋,我很兴趣您能否谈谈CUDA的弥留性,毕竟当今AI领域的更多投资资金正流向推理责任负载。
黄仁勋:莫得CUDA,咱们就不知说念如何处理推理。通盘软件栈,从咱们几年前推出的TensorRT-LLM运行,于今它仍然是寰球上性能最高的推理本事栈。为了针对NVLink进行优化,咱们需要探索并发明新的并行化算法,这些算法运行在CUDA之上,以分派责任负载和推理任务,从而利用NVLink交换机的团聚带宽。NVLink交换机使咱们能够收场高达50倍的代际每瓦性能进步。这是一个令东说念主难以置信的飞跃,而且铿锵有劲。NVLink交换机是一项伟大的发明,但要作念到这少许很难。
交换本事的创造、交换机的解耦、系统机架的构建,整个这一切,咱们都是在全行业的小心下公开完成的,全球都知说念这对咱们来说有多难。但斥逐是不可想议的:每瓦性能进步了50倍,每好意思元性能进步了35倍,推理方面的飞跃令东说念主难以置信。弥留的是要知道到,当今对于咱们的客户来说,推理就等于收入。因为智能体产生了如斯多的token,而且后果如斯显贵。当智能体在编码时,幸运彩票它会生成千千万万、数十万、致使数百万的token,因为它们常常需要运行几分钟致使几小时。这些系统,这些智能体系统,会繁衍出不同的智能体像一个团队一样协同责任。
生成的token数目如实呈指数级增长。咱们需要以更高的速率进行推理,而当以更高的速率进行推理时,每一个token都能奏凯变现,从而奏凯转动为收入。推感性能就等于咱们客户的收入。对于数据中心来说,推理阶段每瓦生成的token数将奏凯转动为CSP(云职业提供商)的收入。原因在于,整个东说念主都受制于电力瓶颈。我的真谛是,不管你有若干数据中心,每个数据中心,比如100兆瓦或1吉瓦,都有电力甘休。具有最好每瓦性能的架构至关弥留,因为在每瓦能生成的性能token中,每个token都能变现。
每瓦token数转动为每瓦好意思元数,这在一吉瓦的数据中心中会奏凯转动为收入。你可以看到,当今每个CSP都会通这少许,每个超大领域企业都会通这少许:老本支拨会转动为计较才能。汲取正确架构的计较能最大化收入,计较等于收入。今天不投资容量,不投资计较,就不可能有收入增长,我想每个东说念主都领悟这少许。计较等于收入。聘请正确的架构极其弥留。当今这不单是是策略问题,它更奏凯影响他们的盈利。聘请正确的架构,即每瓦性能最好的架构,就是一切。

图片:黄仁勋在CES 2026演讲,来源:英伟达官网
Melius Research分析师本·雷茨(Ben Reitzes):开始,我要赞誉你们将股票薪酬纳入非GAAP经营。我认为这是一个很好的举措,但这并非我的问题。我的问题围绕着毛利率以偏激耐久保管在75%左右的可抓续性。咱们是否应该从供应能见度抓续到2027年这少许解读为,毛利率可以保管到当时?仁勋,那之后呢?你们能否露馅一些在内存浮滥方面的创新,让咱们对耐久保管这一毛利率水平更有信心?谢谢。
黄仁勋:撑抓咱们高毛利率的中枢能源,其实是为客户带来跨代际的性能飞跃。这是最弥留的事情。若是咱们能够提供代际的每瓦性能飞跃,并远超摩尔定律所能达到的水平;若是咱们能够提供每好意思元性能的飞跃,使其远超咱们系统的成本和价钱,那么咱们就能够抓续保管咱们的毛利率。这是一个纰漏却最弥留的认识。咱们之是以发展如斯之快,是因为,第一,由于咱们依然履历的拐点,寰球对token的需求依然完全呈指数级增长。我想咱们都看到了这少许,以至于咱们即就是六年前推出的云霄GPU也已完全被浮滥殆尽,且价钱还在上升。
咱们知说念当代软件开发形势所需的计较量正在指数级增长。咱们的策略是每年委用一个完好的东说念主工智能基础设施。本年,咱们推出了六款新芯片。Rubin及下一代也将推出许多新芯片。每一代,咱们都悉力于提供数倍于前代的每瓦性能和每好意思元性能。这种迭代速率,以及咱们进行极致协同遐想的才能,使咱们能够为客户委用这种价值和收益。就咱们传递的价值而言,这是最至关弥留的事情。
New Street Research分析师安东尼·什凯班(Antoine Chkaiban):我想问一下对于天际数据中心的事情,你们的一些客户正在议论这个。您认为这有多大的可行性,期间线粗略是怎么的?目前的经济效益如何,您认为畴昔会如何发展?谢谢。
黄仁勋:目前的经济效益很差,但跟着期间的推移会改善。如您所知,天际的责任形势与地球上的责任形势截然有异。那里有丰富的能源,但太阳能电板板体积浩大,不外天际中有足够的空间。散热方面,天际很冷,可是莫得空气流动,是以独一的散热形势是通过传导,而你需要制造的散热器很是大。液冷显着是行欠亨的,因为它很重,而且会结冰。咱们在地球上使用的纪律与在天际中使用的纪律略有不同。
有许多不同的计较问题如实需要在天际中完成。英伟达依然是寰球上第一个将GPU送入天际的公司,Hopper依然在天际中了。GPU在天际中最好的用例之一是成像。能够利用光学和东说念主工智能,以极高的差别率成像,况且能够进行不同角度的再行投影计较,能够进步差别率、降噪,能够看得更清,能够以相当大、相当高的差别率、极其浩大的领域、相当相当快地成像。要知说念,将PB级的成像数据传回地球再进行处理短长常费力的。
更纰漏的作念法是奏凯在天际中完成。您可以先忽略整个汇注和处理的通例数据,直到发现存价值的场地(再行处理)。天际中的东说念主工智能将会有相当出色、相当真谛的应用。
Evercore ISI分析师马克·利帕西斯(Mark Lipacis):我想追问一下您在发言稿中对于收入多元化的驳倒。科莱特,我信托您提到超大领域企业占收入的50%以上,但增长是由你们其他数据中心客户引颈的。我想证据一下,只是想证据我会通得对分歧。这是否意味着你们的非超大领域客户增长更快?若是是这么,您能匡助咱们会通,非超大领域企业在作念什么不同的事情?他们作念的事情与超大领域企业不同,如故说只是领域不同但作念着一样的事情?您揣测这一趋势会抓续吗?您揣测您的客户群是否会发展到非超大领域企业成为您业务中更弥留的一部分?谢谢。
克雷斯:让我来试着回答这个问题。当您看咱们的前五大客户时,正如咱们所阐发的,他们是咱们的CSP(云职业提供商)、咱们的超大领域企业,他们目前约占咱们总收入的50%。与此同期,咱们领有一个浩大且多元的客户群体,由各式种种不同类型的公司构成,咱们正在与他们调解,包括咱们的AI模子制造商、咱们的企业、超等计较以及主权国度客户等。这涵盖了许多不同的细分领域。您是对的,这亦然一个增长相当快的领域。咱们在咱们平台上的整个不同云提供商中都有矫健的地位。当今咱们还有极其各种化的客户,遍布寰球各地。
看到这种各种性并能职业于整个这些细分市集,这如实会带来平正。让仁勋望望是否有需要补充少许。
黄仁勋:这是咱们生态系统的上风之一,一切都建立在CUDA之上。咱们是独逐个个存在于每一朵云中、可通过每家计较机制造商获取、可在边际使用的加快计较平台,当今咱们正在深耕电信行业。显着,畴昔的无线电都将由AI驱动,畴昔的无线汇注也将成为一个计较平台。这是一个定论,但必须有东说念主去发明本事使之成为可能。咱们创建了一个名为Aerial的平台来收场这一场地。咱们险些出当今每一个机器东说念主、每一辆自动驾驶汽车中。
咱们的才能,CUDA的才能,一方面领有专用处理器(如咱们GPU里面的张量中枢)的性能上风。另一方面,CUDA的生动性使咱们能够处分语言问题、计较机视觉问题、机器东说念主问题、生物知识题、物理知识题,以及险些整个类型的东说念主工智能和整个类型的计较算法。咱们客户群的各种性是咱们最大的上风之一。
第二点,虽然,即使咱们的处理器是可编程的,若是莫得咱们我方的生态系统,若是不去扶直它,正如咱们今天所探讨的那样,投资于畴昔的生态系统并抓续增强它,咱们也很难冲破“为他东说念主生态系统赢得遐想订单”的增长天花板。由于咱们创建的平台,咱们可以相当当然地发展和扩展咱们的生态系统。临了,相当弥留的少许是咱们与OpenAI和Anthropic、xAI、Meta的调解关联,虽然,还有寰球上险些每一个开源社区。Hugging Face上有150万个AI模子,整个这些模子都运行在英伟达CUDA上。若是把通盘开源社区看作一个合座,它可能代表着寰球上第二大模子生态。OpenAI是最大的。第二大,可能就是整个开源模子的聚首。
英伟达运行整个这些模子的才能使咱们的平台具有极强的通用性、超等易用性,况且投资起来相当安全。这创造了客户的各种性、平台的各种性,并在每个国度都垂手而得,因为,如您所知,咱们支抓全寰球的生态系统。
富国银行分析师亚伦·雷克斯(Aaron Rakers):好的。感谢您收受我的发问。我想,在坚抓平台和极致协同遐想理念的同期,本季度的一些新闻显着标明,英伟达有才能或正在推动将Vera CPU行为孤立处分决策推向市集。我很兴趣Vera在咱们畴昔的架构演进中演出着多弥留的脚色?这是否更多地由推理责任负载的各种性驱动?我只是兴趣您如何看待它在英伟达业务发展中的定位,至极是在孤立CPU方面。谢谢。
黄仁勋:我将在GTC上与全球共享更多信息。但从宏不雅架构来看,咱们对CPU的架构决策与寰球上其他CPU有着根蒂的不同。这是独一支抓LPDDR5的数据中心CPU。它旨在专注于相当高的数据处理才能。原因在于,咱们感意思的大多数计较问题都是数据驱动的,东说念主工智能就是其中之一。在这种带宽比例下,其单线程性能竟然号称不凡。咱们作念出这些架构决策是因为在东说念主工智能的各个不同阶段,从数据处理运行,在进行磨练之前,你必须先进行数据处理。你需要进行数据处理、预磨练,而在后磨练阶段,东说念主工智能正在学习如何使用器具。在器具的使用方面,许多器具运行在纯CPU环境中,或者运行在带有GPU加快的CPU环境中。Vera被遐想成为一款在后磨练阶段极佳的CPU。在通盘东说念主工智能经过中,某些用例需要使用大量CPU。你知说念,咱们和可爱GPU一样可爱CPU,当你像我一样将算法加快到极限时,阿姆达尔定律就会标明,你需要相当相当快的单线程CPU。这就是为什么咱们将Grace构建得相当擅长单线程性能,而Vera比那还要好得多。
瑞银分析师蒂姆·阿库里(Tim Arcuri):科莱特,我想知说念您是否可以谈谈老本部署。我知说念你们大幅提高了采购承诺,但听起来你们似乎依然渡过了产能瓶颈期,本年你们可能会创造约莫1000亿好意思元的现款流。而且,不劳动迹有多好,股价似乎并莫得涨若干。我想您会认为目前的估值是一个很是可以的价钱,可以在这里进行大领域的股票回购。我想知说念您是否可以谈谈这个,比如,问题是,为什么不设定一个更激进的场地,就在这里进行大领域的回购?谢谢。
克雷斯:咱们相当仔细地评估咱们的老本申诉经营,咱们如实信托,咱们能作念的最弥留的事情之一是全力支抓咱们眼前浩大的生态系统。这个生态系统无处不在,涵盖了咱们的供应商,以及咱们需要作念的责任,以确保咱们能够获取所需的供应,并在产能方面匡助他们,就像咱们匡助那些将在咱们平台上开发AI处分决策的早期开发者一样。咱们将不竭使这成为咱们业务经过和策略投资中相当弥留的一部分。虽然,咱们仍在回购咱们的股票,也仍在披发股息。咱们将在年内不竭寻找恰当且私有的契机来进行这些不同的钞票配置。
高盛分析师吉姆·施奈德(Jim Schneider):仁勋,您之前概述过,到2030年数据中心老本支拨可能达到3至4万亿好意思元,这示意着增长率可能会加快,而您对下一季度的指令至少也印证了这少许。问题是,您认为哪些关键应用领域最有可能推动这种加快?是物理AI、智能体AI如故其他领域?您仍然看好那3至4万亿好意思元的市集领域吗?谢谢。
黄仁勋:让咱们退后一步,从几个不同的角度来推理。开始,从第一性道理登程,畴昔软件期骗AI的形势是由token驱动的。我想每个东说念主都在议论token经济学,议论数据中心生成token,推理骨子上就是生成token,而咱们恰是生成token的引擎。你知说念,咱们刚刚议论了token,以及英伟达的NVLink交换机如何使咱们能够以比上一代进步50倍的能效比来生成token。token生成险些是畴昔整个与软件和计较有关事务的中枢。
反不雅咱们曩昔的计较形势,曩昔软件所需的计较量只是是畴昔所需的一小部分。AI依然到来。AI不会倒退。AI只会不停进化。想考一下,你会发现:寰球每年在经典计较上的投资约为3000至4000亿好意思元,当今AI来了,所需的计较量是曩昔计较形势的1000倍。计较需求呈指数级飙升。
若是咱们仍然信托其中蕴含价值,咱们稍后会谈到这少许,那么寰球将抓续投资来坐蓐这些token。寰球所需的token生成才能对应的投资领域远不啻7000亿好意思元。我很是确信咱们将不竭生成token。从当今运行,咱们将不竭投资于计较才能。根蒂上,因为每家公司都依赖软件,而每个软件都将依赖AI,是以每家公司都将坐蓐token,这就是我将它们称为AI工场的原因。不管你是云数据中心公司,你都会有AI工场为你的收入生成token。
若是你是一家企业软件公司,你将为你器具之上的智能体系统生成token。若是你是一家机器东说念主工场或自动驾驶汽车公司,第一个迹象是,你会领有巨大的超等计较机(基本上就是AI工场)用于生成token,这些token进入你的汽车,成为它的AI。你还必须在汽车里面遗弃计较机以抓续生成token。咱们当今很是确信这是计较的畴昔。为什么如斯细则这是计较的畴昔?原因在于,咱们曩昔开发软件的形势是预录制的。一切都是事先设定好的。咱们预编译软件,预写内容,预录制视频。
当今一切都是及时生成的。当内容被及时生成时,它能够将东说念主的高低文、情况、查询和意图一说念纳入考量,从而生成咱们称之为AI、智能体AI的新软件的输出。这所需的计较量远遍及于预录制步地。你知说念,就像计较机比DVD播放器领有多得多的计较才能一样,AI需要比咱们曩昔开发软件的形势多得多的计较才能。当今,对于计较可抓续性的问题,开始在计较机科学层面,这就是畴昔计较的形势。
从工业层面来看,因为归根结底,咱们整个的公司都由软件驱动,云公司也由软件驱动。若是新软件需要生成token,况且token可以变现,那么他们的数据中心成就奏凯推动其收入增长是铿锵有劲的。计较推动收入。我想他们都领悟这少许。我想东说念主们也运行越来越多地会通这少许。临了,你知说念,AI为寰球带来的平正最终必须转动为收入。咱们正亲眼看到,就在咱们谈话确当下,智能体AI依然迎来了一个拐点,这推行上就发生在曩昔的两三个月里。
虽然,在行业里面,咱们感知到这个趋势依然有一段期间了,粗略有6个月左右。寰球当今依然意志到了智能体AI的转机点。这些智能体相当聪惠,它们正在处分推行问题。编码当今显着得到了智能体系统的支抓,咱们英伟达这里整个的圭臬员都在大量使用智能体系统,要么是Claude Code,要么是OpenAI Codex,而且常常两者都用,还有Cursor,平方三者王人集使用,具体取决于用例。他们将智能体行为协同遐想伙伴、工程伙伴来匡助他们处分问题。你可以看到这些AI公司的收入在赶快增长。
你知说念,以Anthropic为例,我认为他们的收入一年内增长了10倍,而且他们严重受限于算力容量,因为需务着实令东说念主难以置信。token需求令东说念主难以置信,token生成率呈指数级增长。虽然,OpenAI亦然如斯,他们的需求一样令东说念主难以置信。他们能上线运行的计较才能越多,他们的收入增长就越快。这印证了我之前的驳倒:在这个新寰球里,推理就是收入,计较等于收入。在好多方面,这就是为什么咱们说这是一场新的工业创新。新的工场、新的基础设施正在成就中,这种新的计较形势不会倒退。
只有咱们信托坐蓐token将是畴昔的计较形势,我笃信这少许,而且我认为行业大体上也对此笃信不疑,那么咱们将从当今运行成就这种才能,并以此为基础不竭扩展。咱们目前看到的是智能体AI的海浪,自后的下一个海浪是物理AI,咱们将AI和这些智能体系统应用到物理当用(比如制造业、机器东说念主本事)中。那是畴昔的巨大机遇。

备案号: