业界动态
2024年澳门四不像今晚高手榜-又一次超预期后,英伟达财报电话会说了什么?(附全文),黄仁,系统,客户
2024-06-02 01:17:25
2024年澳门四不像今晚高手榜-又一次超预期后,英伟达财报电话会说了什么?(附全文),黄仁,系统,客户

黄仁勋在当地(di)时间周三召(zhao)开的英伟达(da)财报(bao)电话会(hui)上表示,Blackwell芯片产品将(jiang)在今年二季度发货(huo)、三季度增产、四季度投放到数据中心,今年就(jiu)会(hui)看(kan)到“Blackwell芯片营收显著增长”,并且在Blackwell芯片之(zhi)后(hou)会(hui)有另一款芯片推出,实现“一年一代”。

关于网络收入,英伟达(da)首次将(jiang)网络收入单拆(chai)出来。黄仁勋表示公司将(jiang)致力于三条网络链(lian)路(lu),从用于单计算域的NVLink到 InfiniBand,再到以太网网络计算结构。

关于以太网络的营收贡献,同样参加电话会(hui)议(yi)的首席财务官科莱特(te)·克雷斯表示,全球首个专为AI设计的高性能以太网架构Spectrum-X,正在为英伟达(da)打开一个全新的市场(chang),目前正在与多家客户进行量(liang)产,其中包括一个10万GPU的大型集(ji)群。公司预计 Spectrum X 将(jiang)在一年内跃升至(zhi)数十亿美元的产品线。

关于推理收入,科莱特(te)·克雷斯表示,公司预计推理能力将(jiang)随着模型复杂度、用户数量(liang)和每(mei)用户查询次数的增加而扩大 。在过(guo)去(qu)的四个季度中,估计推理驱动了我们数据中心约 40% 的收入。

关于AI PC,黄仁勋表示即使(shi)是PC计算堆栈也将(jiang)发生革命性的变化,目前“正在完全重(zhong)新设计计算机的工作(zuo)方式”。

以下是英伟达(da)第一季度财报(bao)电话会(hui)分析师(shi)问答环节全文内容:

伯恩斯坦研究公司Stacy Rascan:

我的第一个问题是,我想深入了解一下blackwell的评(ping)论,这对生产来说很重(zhong)要。

现在。这是否暗示了发货(huo)和交(jiao)付时间?如果该产品不再只是样品,那么当它实际上到达(da)客户手(shou)中时,这意味着什(shi)么?

黄仁勋:

如果它现在正在生产,我们将(jiang)会(hui)发货(huo),我们已(yi)经生产了一段时间。

但我们的生产发货(huo)将(jiang)在第二季度开始,并在第三季度增加,客户应该在第四季度建(jian)立数据中心。

Stacy Rascan:

明(ming)白了。所以今年,听(ting)起来我们将(jiang)看(kan)到Blackwell的收入。

黄仁勋:

我们今年将(jiang)会(hui)看(kan)到很多Blackwell的收入。

美国哥伦比亚(ya)广播公司(CBS)Timothy R. Curry:

我想问Jensen关于Blackwell的部署。 您知道的,与Hopper相比,考虑到系统的特(te)性,以及(ji)您对,您知道的,GB的需求,部署这个产品与Hopper有什(shi)么不同?

我这样问是因(yin)为在大规模上进行液态冷却以前没有做过(guo),而且在节点级别和数据中心内部都(dou)存(cun)在一些工程挑战。那么这些复杂性是否会(hui)延(yan)长过(guo)渡期?您如何看(kan)待这一切的进展?谢谢。

黄仁勋:

是的,Blackwell有很多配置(zhi)。Blackwell是一个平台(tai),而不是一个GPU。该平台(tai)包括支持空气冷却、液态冷却x 86和Grace无限带。现在Spectrum X,非常(chang)大的MV Link域,我在GTC上展示了GTC。

因(yin)此(ci),对于一些客户来说,他们将(jiang)进入他们现有的数据中心安装基础,这些数据中心已(yi)经在运输hoppers。他们将(jiang)很容易地(di)从H100过(guo)渡到H200到BE 100。

因(yin)此(ci),Blackwell系统已(yi)经被设计为向后(hou)兼容,如果您愿意的话,从电气和机械角度。当然,运行在Hopper上的软件将(jiang)在Blackwell上运行得非常(chang)好。

我们还一直在为整个生态系统做好准备,让他们为液态冷却做好准备。我们已(yi)经与生态系统中的Blackwell谈论了很长时间。而且CSPs、数据中心、ODMs、系统制造商、我们的供应链(lian)、他们的供应链(lian)、液态冷却供应链(lian)、数据中心供应链(lian),没有人会(hui)对Blackwell的到来以及(ji)我们希望以Grace Blackwell 200 GB交(jiao)付的能力感到惊讶。GB 200将(jiang)非常(chang)出色。

美国银行证券分析师(shi)Beck Aria:

谢谢您接(jie)受(shou)我的问题,Jensen。您如何确保您的产品有足够的利用率,并且不会(hui)因(yin)为供应紧张(zhang)、竞争或其他因(yin)素而出现提前拉动或持有行为?

您在系统中建(jian)立了哪些检(jian)查,以使(shi)我们相信货(huo)币化与您非常(chang)、非常(chang)强劲的发货(huo)道路(lu)保持同步(bu)?

黄仁勋:

我想先给出一个宏观的视角,然后(hou)直接(jie)回答您的问题。

GPU在所有数据中心的需求是惊人的。我们每(mei)天都(dou)在竞跑,原因(yin)就(jiu)是这样,因(yin)为像(xiang)ChatGPT和GPT 4 o这样的应用程序,现在它将(jiang)是多模态的,还有Gemini和它的坡道,以及(ji)所有CSPs正在进行的所有工作(zuo),都(dou)在消耗着每(mei)一个GPU。还有一长串生成性AI初创公司,大约有15,000到20,000家初创公司,它们在各(ge)种领域,从多媒(mei)体到数字角色,当然,还有各(ge)种设计工具应用、生产力应用、数字生物(wu)学。

自(zi)动驾驶汽车(che)行业正在转向使(shi)用视频数据,使(shi)他们能够训练端到端模型,扩大自(zi)动驾驶汽车(che)的操作(zuo)领域。这个列表非常(chang)特(te)别。

我们正在竞跑,实际上,客户对我们施加了很大的压力,要求我们尽快交(jiao)付系统并建(jian)立起来。

当然,我甚至(zhi)还没有提到所有希望训练他们国家地(di)区自(zi)然资源数据的国家,也就(jiu)是他们的数据,以训练他们地(di)区模型。有很多压力要求尽快建(jian)立这些系统。无论如何,我认为需求真(zhen)的很高,而且长期来看(kan)供应不足。这就(jiu)是我为什(shi)么要发表一些长期评(ping)论的原因(yin),对吧(ba)?

您知道,我们正在完全重(zhong)新设计计算机的工作(zuo)方式。当然,这已(yi)经被比作(zuo)过(guo)去(qu)其他平台(tai)的转变,但时间会(hui)清(qing)楚(chu)地(di)表明(ming),这比以往的平台(tai)转变要深刻得多。原因(yin)就(jiu)在于,计算机不再只是一台(tai)指令驱动的计算机。它是一个意图理解的计算机。它当然理解我们与它的交(jiao)互方式,但它也理解我们的意思,我们要求它做什(shi)么,并且有能力进行推理、计划和迭代处理,并提出解决方案(an)。

因(yin)此(ci),计算机的每(mei)一个方面(mian)都(dou)在以这样的方式改(gai)变,即它不再检(jian)索预录的文件,而是现在生成与上下文相关的、智能的答案(an)。因(yin)此(ci),这将(jiang)改(gai)变世界各(ge)地(di)的计算堆栈。您看(kan)到了一个构建(jian),事实上,即使(shi)是PC计算堆栈也将(jiang)得到革命化。

而这仅仅是我们看(kan)到的,您知道,今天我们所看(kan)到的只是我们在实验室中正在做的工作(zuo)的开始,以及(ji)我们正在与世界各(ge)地(di)的所有初创公司、大公司和开发人员(yuan)一起做的事情(qing),这将(jiang)是非同寻常(chang)的。

摩(mo)根士丹利Joe Moore:

我理解您刚刚关于需求有多强劲的评(ping)论,市场(chang)对H200和Blackwell产品有很大的需求。您是否预计在从这些产品过(guo)渡时,Hopper和H100会(hui)有所暂停?人们会(hui)等待这些新产品吗(ma),这将(jiang)是一个好产品?还是您认为对H100的需求足以维持增长?

黄仁勋:

我们看(kan)到这个季度Hopper的需求在增加,我们预计随着我们过(guo)渡到H 200,需求将(jiang)超过(guo)供应一段时间,因(yin)为我们过(guo)渡到Blackwell。我,每(mei)个人都(dou)急于让他们的基础设施上线。原因(yin)就(jiu)是这样,因(yin)为他们正在省钱和赚钱,他们希望尽快这样做。

高盛Toshiahari:

我想问关于竞争的问题。我想您的许多云客户都(dou)宣布了,您知道的,新的或对现有内部计划的更新,与他们与您合(he)作(zuo)的工作(zuo)同时进行,您在多大程度上将(jiang)他们视为中长期竞争对手(shou)?在近期内,您认为他们是否主要限于解决内部工作(zuo)负载?还是他们可(ke)以更广泛地(di)解决未来的问题?谢谢。

黄仁勋:

是的,我们有几个不同之(zhi)处。

首先,Nvidia的加速计算架构允许客户处理他们整个流程的每(mei)一个方面(mian),从处理非结构化数据准备训练,到结构化数据处理、数据框架处理(如SQL)准备训练,再到训练和推理。正如我在讲话中提到的,推理已(yi)经发生了根本(ben)性的变化。现在是生成,不再只是试图检(jian)测猫(尽管这本(ben)身已(yi)经非常(chang)困难(nan))。现在需要生成猫的每(mei)一个像(xiang)素。所以生成过(guo)程是一个根本(ben)不同的处理架构,这也是Tensor RTLM备受(shou)欢迎的原因(yin)之(zhi)一。”

我们在使(shi)用相同芯片的架构上提升了三倍的性能,这说明(ming)了我们的架构和软件的丰富性。因(yin)此(ci),首先,你可(ke)以使(shi)用Nvidia来处理从计算机视觉(jue)到图像(xiang)处理、计算机图形学等所有计算模式。随着世界现在遭受(shou)计算成本(ben)和计算能耗上涨的困扰,因(yin)为通用计算已(yi)经达(da)到极限,加速计算才是可(ke)持续发展的方式。加速计算是你节省计算成本(ben)和能耗的途径(jing)。因(yin)此(ci),我们平台(tai)的多功能性为他们的数据中心带来了最低的总体拥有成本(ben)(TCO)。

第二,我们从不在云端。所以对于正在寻找平台(tai)进行开发的开发人员(yuan)来说,从Nvidia开始总是一个不错的选择(ze)。我们,我们在本(ben)地(di)。我们在云端。你在任(ren)何大小(xiao)和形状的计算机上。我们几乎无处不在。这就(jiu)是第二个原因(yin)。

第三个原因(yin)与事实有关,你知道,我们构建(jian)AI工厂,这变得越来越明(ming)显,AI不仅仅是芯片问题。当然,它从非常(chang)好的芯片开始,我们为我们的AI工厂构建(jian)了很多芯片,但它是一个系统问题。

事实上,甚至(zhi)AI现在是一个系统问题。它不仅仅是一个大型语言模型。它是一大堆大型语言模型的复杂系统,它们一起工作(zuo)。所以Nvidia构建(jian)系统的事实使(shi)我们能够优化我们所有的芯片,使(shi)它们作(zuo)为一个系统一起工作(zuo),能够拥有作(zuo)为一个系统运行的软件,并能够在整个系统中进行优化。

现在,让我们从一个简(jian)单的数字角度来看(kan),你知道,如果你有一个5亿美元的基础设施,你提高了两倍的性能,这是我们通常(chang)做的。当你提高基础设施的性能两倍时,它的价值就(jiu)增加了10亿美元。所有数据中心的芯片并不能支付它。因(yin)此(ci),它的价值确实非常(chang)特(te)别。这就(jiu)是为什(shi)么今天性能至(zhi)关重(zhong)要的原因(yin)。

你知道,这是在最高性能也是最低成本(ben)的时候,因(yin)为携带所有这些芯片的基础设施成本(ben)很高,资助数据中心、运营数据中心、随之(zhi)而来的复杂性,随之(zhi)而来的电力,随之(zhi)而来的房地(di)产,你知道,所有这些都(dou)结束(shu)了。所以最高性能也是最低TCO。

市场(chang)研究公司TD Cowen分析师(shi)Matt Ramsey:

我在数据中心行业工作(zuo)了一辈(bei)子。我从未见过(guo)你们推出的新平台(tai)的速度,以及(ji)你们获(huo)得的性能提升。训练速度提高了5倍,推理速度在GTC上提高了30倍,这真(zhen)是一件令人惊叹的事情(qing)。

但这也创造了一个有趣的对比,那就(jiu)是您当前一代产品,您的客户正在花费数十亿美元,它将(jiang)比产品的折旧周期更快地(di)不再与您的新产品竞争。所以我想请您,如果您不介意的话,谈一谈您如何看(kan)待这种情(qing)况随着Blackwell的推出而发展。

他们将(jiang)拥有一个非常(chang)大的安装基础,显然是软件兼容的,但是有一个非常(chang)大的安装基础的产品,其性能远不如您的新一代产品。我很想听(ting)听(ting)您对客户在这条道路(lu)上的看(kan)法。 是

黄仁勋:

我想提出三点。如果您的建(jian)设进度是5%,而您的建(jian)设进度是95%,您的感觉(jue)会(hui)非常(chang)不同。而且,因(yin)为您无论如何都(dou)只进行了5%的建(jian)设,您知道,您必须尽可(ke)能快地(di)建(jian)造,当Blackwell到来时,它将(jiang)是极好的。

然后(hou),在Blackwell之(zhi)后(hou),正如您提到的,我们还有其他的Blackwells即将(jiang)到来。然后(hou),有一个短(duan)暂的,您知道的,我们以一年的节奏向世界解释。我们希望我们的客户能看(kan)到我们的路(lu)线图,尽可(ke)能地(di)了解他们。

但他们无论如何都(dou)处于建(jian)设的早期阶段,所以他们必须继续建(jian)设,所以将(jiang)会(hui)有很多芯片向他们袭来,他们只需要继续建(jian)设,如果愿意的话,通过(guo)性能平均(jun)化进入其中,所以这是聪明(ming)的做法。

他们今天需要赚钱。他们想今天省钱,而且时间对他们来说真(zhen)的很有价值。

让我给您举一个时间非常(chang)有价值的例子,为什(shi)么立即建(jian)立数据中心的想法如此(ci)有价值,以及(ji)获(huo)得训练时间如此(ci)有价值。原因(yin)就(jiu)是这样,因(yin)为下一个达(da)到下一个主要里程碑的公司将(jiang)宣布一项(xiang)突(tu)破性的AI。而之(zhi)后(hou)的第二个公司只能宣布比原来好0.3%的东(dong)西。

所以问题是,您想成为反复交(jiao)付突(tu)破性AI的公司,还是想成为交(jiao)付比原来好0.3%的公司?这就(jiu)是为什(shi)么这场(chang)比赛如此(ci)重(zhong)要的原因(yin),因(yin)为在所有技术竞赛中,这场(chang)比赛非常(chang)重(zhong)要。而且您正在看(kan)到这场(chang)竞赛在多家公司中展开,因(yin)为这对公司来说非常(chang)关键,以信任(ren)领导力并想在您的平台(tai)上建(jian)设,并且知道他们正在建(jian)设的平台(tai)将(jiang)越来越好。

所以领导力非常(chang)重(zhong)要,训练时间非常(chang)重(zhong)要。提前三个月完成项(xiang)目的时间,为了获(huo)得训练时间。您知道,提前三个月开始一个三个月的项(xiang)目。提前三个月开始是一切。所以这就(jiu)是为什(shi)么我们现在如此(ci)疯狂地(di)建(jian)立hopper系统的原因(yin),因(yin)为下一个里程碑就(jiu)在拐角处。所以这就(jiu)是第二个原因(yin)。

您刚才发表的第一个评(ping)论真(zhen)的很棒(bang),那就(jiu)是,您知道,我们进展如此(ci)之(zhi)快,进步(bu)如此(ci)之(zhi)快,因(yin)为我们拥有所有这些统计数据。我们在这里构建(jian)了整个数据中心,我们可(ke)以监控一切,测量(liang)一切,跨一切进行优化。

我们知道所有的瓶颈在哪里。我们不是在猜测。我们不是在制作(zuo)看(kan)起来不错的Powerpoint幻灯(deng)片。我们实际上,您知道的,我们也喜欢我们的Powerpoint幻灯(deng)片看(kan)起来不错,但我们正在交(jiao)付在规模上表现出色的系统。我们之(zhi)所以知道它们在规模上表现出色的原因(yin)是因(yin)为我们构建(jian)了它们所有。

现在,我们做的一件事有点奇迹,那就(jiu)是我们在这里构建(jian)了整个AI基础设施,但然后(hou)我们将(jiang)其解聚并集(ji)成到客户的数据中心,无论他们喜欢什(shi)么方式。但我们知道它将(jiang)如何表现,我们知道瓶颈在哪里,我们知道我们需要在哪里与他们一起优化,我们知道我们需要帮(bang)助他们改(gai)进他们的基础设施,以实现最佳性能。

这种对整个数据中心规模的深刻、亲密的了解,基本(ben)上就(jiu)是今天让我们与众不同的原因(yin)。您知道,我们从头(tou)开始构建(jian)每(mei)一个芯片。我们确切地(di)知道整个系统中的处理方式,所以我们知道它将(jiang)如何表现,以及(ji)如何利用每(mei)一代产品获(huo)得最佳效果。所以我很感激您提出的这三个观点。

独立投资银行咨询Evercore分析师(shi)Marco Pacas:

在过(guo)去(qu),您曾说过(guo),通用计算生态系统通常(chang)主导了每(mei)个计算时代。我相信论点是它们可(ke)以适应不同的工作(zuo)负载,获(huo)得更高的利用率,推动计算周期下降。这是您推动通用GPU计算生态系统加速计算的动机。如果我误解了您的观察,请告(gao)诉我。

所以问题是,鉴于推动您解决方案(an)需求的工作(zuo)负载是由神经网络训练和推理驱动的,表面(mian)上看(kan),这似乎是一个有限的工作(zuo)负载数量(liang),那么它们也可(ke)能倾向于定制解决方案(an)。那么问题是,通用计算框架是否变得更加有风险?或者是否有足够的变化性或这些工作(zuo)流程的快速演变,支持那个历史性的通用框架。谢谢。

黄仁勋:

是的,这些加速计算是多功能的,但我不会(hui)称之(zhi)为通用。比如,我们不会(hui)很擅(shan)长运行电子表格(ge),您知道,这是为通用计算而设计的。而且,控制操作(zuo)系统代码的循环可(ke)能对通用计算不是很好,对我们的,对我们的,对我们的加速计算不是很好。

所以我会(hui)说我会(hui)说我们是多功能的,这通常(chang)是我描述它的方式。多年来,我们能够加速的应用程序领域非常(chang)丰富,但它们都(dou)有很多的共同点。您知道,可(ke)能有一些深刻的差异,但有共同点,它们都(dou)是可(ke)以并行运行的。它们都(dou)是高度线程化的。5%的代码代表了99%的运行时间,

例如。这些都(dou)是加速计算的属性。我们平台(tai)的多功能性和我们设计整个系统的事实是,在过(guo)去(qu)的10年左右,你们在这些电话会(hui)议(yi)中问我的初创公司的数量(liang)相当大。而且每(mei)一个,因(yin)为它们的架构非常(chang)脆弱,当生成性AI出现时,在扩散(san)模型出现时,当下一个模型出现时,现在下一批模型即将(jiang)出现。

然后(hou)突(tu)然之(zhi)间,看(kan)看(kan)这些具有记忆的大型语言模型。因(yin)为大型语言模型需要有记忆,这样它们才能与您进行对话,理解上下文。突(tu)然之(zhi)间,Grace内存(cun)的多功能性变得非常(chang)重(zhong)要。所以每(mei)一个这些生成性AI的进步(bu),以及(ji)AI的进步(bu),真(zhen)的需要的不是为一个模型设计的一个小(xiao)部件,而是有一些对这个整个领域真(zhen)正很好的部件。

但遵循软件的首要原则,软件将(jiang)继续发展,软件将(jiang)继续变得更好更大。我们相信这些模型的扩展。有很多原因(yin),我们将(jiang)在未来几年内轻松地(di)扩展一百倍,我们期待着它,我们为此(ci)做好了准备。所以平台(tai)的多功能性真(zhen)的是关键。而且,如果您太脆弱、太具体了,您可(ke)能只是建(jian)一个FPGA或者建(jian)一个ASIC或者类似的东(dong)西,但那几乎不是一台(tai)计算机。

Raymond James分析师(shi)Serena Pajuri:

实际上,我想澄清(qing)一下你刚才说的关于GB200系统的内容。看(kan)起来对系统的需求非常(chang)强劲。历史上,我认为你们卖出了很多AGX板(ban)卡和一些GPU,而系统业务相对较小(xiao)。所以我很好奇,为什(shi)么现在你们看(kan)到对系统有这么强的需求?这是因(yin)为TCO(总体拥有成本(ben))吗(ma)?还是其他什(shi)么原因(yin)?或者是因(yin)为架构?

黄仁勋:

谢谢你的提问。实际上,我们销售GB200的方式是一样的。我们分解所有有意义的组件,并将(jiang)它们集(ji)成到计算机制造商中。今年我们有100种不同的计算机SIS配置(zhi)即将(jiang)推出用于Blackwell,而这超出了预期。

坦白说,Hopper只有一半的数量(liang)。而这是其巅峰,最初甚至(zhi)远少于此(ci)。你会(hui)看(kan)到液冷版本(ben)、风冷版本(ben)、x86版本(ben)、Grace版本(ben)等等。很多系统正在设计中,并由我们所有的优秀合(he)作(zuo)伙伴提供。基本(ben)没有什(shi)么变化。

当然,Blackwell平台(tai)极大地(di)扩展了我们的产品供应。CPU的集(ji)成和更高密度的计算能力,液冷技术将(jiang)为数据中心节省大量(liang)的资金和电力供应,不仅更节能,而且是一个更好的解决方案(an)。它更昂贵,意味着我们为数据中心提供了更多的组件,每(mei)个人都(dou)会(hui)受(shou)益。

数据中心将(jiang)从高性能网络、网络交(jiao)换机中获(huo)得更高的性能。当然,还有以太网。这样我们就(jiu)可(ke)以将(jiang)Nvidia AI大规模地(di)带给那些只操作(zuo)或只熟悉以太网的客户,因(yin)为他们的生态系统就(jiu)是如此(ci)。因(yin)此(ci),Blackwell更加昂贵,我们这一代有更多的产品提供给我们的客户。”

Truest Securities分析师(shi)William Stein:

“很好。谢谢你回答我的问题,Jensen。在某个时刻,Nvidia决定,虽然有一些相当不错的CPU可(ke)用于数据中心操作(zuo),但你们的基于ARM的Grace CPU提供了一些真(zhen)正的优势,使(shi)得这种技术值得交(jiao)付给客户,这可(ke)能与成本(ben)或功耗或Grace与Hopper、Grace与Blackwell之(zhi)间的技术协同有关。

你能否谈谈是否在客户端也可(ke)能出现类似的动态情(qing)况?尽管有非常(chang)好的解决方案(an),比如你提到的Intel和AMD是非常(chang)好的合(he)作(zuo)伙伴,并且提供了出色的x86产品,但在新兴的AI工作(zuo)负载中,Nvidia可(ke)能提供一些其他人难(nan)以实现的优势。”

黄仁勋:

您提到了一些非常(chang)好的理由。对于许多应用程序,我们与x 86合(he)作(zuo)伙伴的合(he)作(zuo)确实非常(chang)好,我们共同构建(jian)了出色的系统。 但是Grace使(shi)我们能够做一些在今天的系统配置(zhi)中不可(ke)能的事情(qing)。Grace和Hopper之(zhi)间的内存(cun)系统是连贯且连接(jie)的。这两个芯片之(zhi)间的互连,你知道,把它们称为两个芯片几乎很奇怪,因(yin)为它们就(jiu)像(xiang)一个超级芯片。它们通过(guo)这种每(mei)秒数TB的接(jie)口连接(jie)在一起。是的,这太棒(bang)了。而且,Grace使(shi)用的内存(cun)是lpddr。这是第一个数据中心级低功耗内存(cun)。所以我们在每(mei)个节点上都(dou)节省了很多电力。

最后(hou),由于架构,因(yin)为我们可(ke)以用整个系统创建(jian)自(zi)己的架构,现在我们可(ke)以创建(jian)一个真(zhen)正大的MV Link域,这对于下一代大型语言模型进行推理至(zhi)关重(zhong)要。所以你看(kan)到GB 200有一个72节点MV Link域。这就(jiu)像(xiang)72个Blackwells连接(jie)在一起,形成一个巨大的GPU。所以我们需要Grace Blackwells才能做到这一点。所以我,如果有像(xiang)那样的机会(hui),你知道,我们会(hui)探(tan)索它。而且,正如你在昨天的构建(jian)中看(kan)到的那样,我认为非常(chang)棒(bang)。

正如Satya宣布的下一代PC是Copilot plus PC,它在Nvidia的RTX GPU上运行得非常(chang)好,这些GPU正在笔记本(ben)电脑上发货(huo)。但它也支持ARM,非常(chang)出色。所以它为系统创新打开了机会(hui),即使(shi)是PC。

Kendra Fitzgerald分析师(shi)CJ Muse:

我想问Jensen一个稍微长远的问题。我知道Blackwell甚至(zhi)还没有发布,但显然投资者是前瞻性的,而且在潜在的GPU和客户的竞争不断增加的情(qing)况下,您如何看(kan)待Nvidia在创新方面(mian)的步(bu)伐,过(guo)去(qu)十年的百万倍扩展以及(ji)在精密度、Grace、连贯连接(jie)方面(mian)取得的真(zhen)正令人印象深刻的进展。展望未来,未来十年需要解决哪些摩(mo)擦?我想更重(zhong)要的是,您今天愿意与我们分享什(shi)么?

嗯,我可(ke)以宣布,在Blackwell之(zhi)后(hou),还会(hui)有另一款芯片,我们将(jiang)以一年为周期进行更新。因(yin)此(ci),你们也可(ke)以指望我们以非常(chang)快的速度推出新的网络技术。

我们正在发布以太网的Spectrum X,但我们完全投入以太网,我们有一个非常(chang)令人兴奋的以太网路(lu)线图。我们拥有丰富的合(he)作(zuo)伙伴生态系统。戴(dai)尔宣布他们将(jiang)Spectrum X推向市场(chang)。我们有丰富的合(he)作(zuo)伙伴和客户,他们将(jiang)宣布将(jiang)我们整个人工智能工厂架构推向市场(chang)。

因(yin)此(ci),对于那些希望获(huo)得最终性能的公司,我们有无限带宽(kuan)计算结构。Infiniband是一种计算结构,以太网和网络。多年来,Infiniband起初是一种计算结构,逐渐变成了一种越来越好的网络。以太网是一个网络。通过(guo)Spectrum X,我们将(jiang)使(shi)其成为一个更好的计算结构。我们致力于所有3个链(lian)接(jie),从Envy链(lian)接(jie),通勤计算结构到无限带宽(kuan)计算结构,再到以太网网络计算结构。

因(yin)此(ci),我们将(jiang)以非常(chang)快的速度推进所有这三个方面(mian)。您将(jiang)看(kan)到新的交(jiao)换机、新的下一步(bu)、新的功能、运行在所有这三个方面(mian)的新软件堆栈。新的CPU、新的GPU、新的网络、下一步(bu)新的交(jiao)换机、新的芯片数量(liang)以及(ji)所有这一切美好的事情(qing)都(dou)是运行在Kuda上,都(dou)运行我们的整个软件堆栈。

因(yin)此(ci),如果您今天投资我们的软件堆栈,而不需要做任(ren)何事情(qing),它只会(hui)变得越来越快。如果您今天投资我们的架构,而不需要做任(ren)何事情(qing),它将(jiang)变得越来越多的云和越来越多的数据中心,一切都(dou)会(hui)变得更好。因(yin)此(ci),我认为我们正在带来的创新速度将(jiang)一方面(mian)提高能力,另一方面(mian)降低TCO。因(yin)此(ci),我们应该能够通过(guo)Nvidia架构为这个新时代的计算扩展,并开始这个新的工业革命,在那里我们不再只是制造软件,而是制造人工智能代币,我们将(jiang)以规模实现这一目标。谢谢。

伯恩斯坦研究公司Stacy Rascan:

我的第一个问题是,我想深入了解一下blackwell的评(ping)论,这对生产来说很重(zhong)要。

现在。这是否暗示了发货(huo)和交(jiao)付时间?如果该产品不再只是样品,那么当它实际上到达(da)客户手(shou)中时,这意味着什(shi)么?

黄仁勋:

如果它现在正在生产,我们将(jiang)会(hui)发货(huo),我们已(yi)经生产了一段时间。

但我们的生产发货(huo)将(jiang)在第二季度开始,并在第三季度增加,客户应该在第四季度建(jian)立数据中心。

Stacy Rascan:

明(ming)白了。所以今年,听(ting)起来我们将(jiang)看(kan)到Blackwell的收入。

黄仁勋:

我们今年将(jiang)会(hui)看(kan)到很多Blackwell的收入。

美国哥伦比亚(ya)广播公司(CBS)Timothy R. Curry:

我想问Jensen关于Blackwell的部署。 您知道的,与Hopper相比,考虑到系统的特(te)性,以及(ji)您对,您知道的,GB的需求,部署这个产品与Hopper有什(shi)么不同?

我这样问是因(yin)为在大规模上进行液态冷却以前没有做过(guo),而且在节点级别和数据中心内部都(dou)存(cun)在一些工程挑战。那么这些复杂性是否会(hui)延(yan)长过(guo)渡期?您如何看(kan)待这一切的进展?谢谢。

黄仁勋:

是的,Blackwell有很多配置(zhi)。Blackwell是一个平台(tai),而不是一个GPU。该平台(tai)包括支持空气冷却、液态冷却x 86和Grace无限带。现在Spectrum X,非常(chang)大的MV Link域,我在GTC上展示了GTC。

因(yin)此(ci),对于一些客户来说,他们将(jiang)进入他们现有的数据中心安装基础,这些数据中心已(yi)经在运输hoppers。他们将(jiang)很容易地(di)从H100过(guo)渡到H200到BE 100。

因(yin)此(ci),Blackwell系统已(yi)经被设计为向后(hou)兼容,如果您愿意的话,从电气和机械角度。当然,运行在Hopper上的软件将(jiang)在Blackwell上运行得非常(chang)好。

我们还一直在为整个生态系统做好准备,让他们为液态冷却做好准备。我们已(yi)经与生态系统中的Blackwell谈论了很长时间。而且CSPs、数据中心、ODMs、系统制造商、我们的供应链(lian)、他们的供应链(lian)、液态冷却供应链(lian)、数据中心供应链(lian),没有人会(hui)对Blackwell的到来以及(ji)我们希望以Grace Blackwell 200 GB交(jiao)付的能力感到惊讶。GB 200将(jiang)非常(chang)出色。

美国银行证券分析师(shi)Beck Aria:

谢谢您接(jie)受(shou)我的问题,Jensen。您如何确保您的产品有足够的利用率,并且不会(hui)因(yin)为供应紧张(zhang)、竞争或其他因(yin)素而出现提前拉动或持有行为?

您在系统中建(jian)立了哪些检(jian)查,以使(shi)我们相信货(huo)币化与您非常(chang)、非常(chang)强劲的发货(huo)道路(lu)保持同步(bu)?

黄仁勋:

我想先给出一个宏观的视角,然后(hou)直接(jie)回答您的问题。

GPU在所有数据中心的需求是惊人的。我们每(mei)天都(dou)在竞跑,原因(yin)就(jiu)是这样,因(yin)为像(xiang)ChatGPT和GPT 4 o这样的应用程序,现在它将(jiang)是多模态的,还有Gemini和它的坡道,以及(ji)所有CSPs正在进行的所有工作(zuo),都(dou)在消耗着每(mei)一个GPU。还有一长串生成性AI初创公司,大约有15,000到20,000家初创公司,它们在各(ge)种领域,从多媒(mei)体到数字角色,当然,还有各(ge)种设计工具应用、生产力应用、数字生物(wu)学。

自(zi)动驾驶汽车(che)行业正在转向使(shi)用视频数据,使(shi)他们能够训练端到端模型,扩大自(zi)动驾驶汽车(che)的操作(zuo)领域。这个列表非常(chang)特(te)别。

我们正在竞跑,实际上,客户对我们施加了很大的压力,要求我们尽快交(jiao)付系统并建(jian)立起来。

当然,我甚至(zhi)还没有提到所有希望训练他们国家地(di)区自(zi)然资源数据的国家,也就(jiu)是他们的数据,以训练他们地(di)区模型。有很多压力要求尽快建(jian)立这些系统。无论如何,我认为需求真(zhen)的很高,而且长期来看(kan)供应不足。这就(jiu)是我为什(shi)么要发表一些长期评(ping)论的原因(yin),对吧(ba)?

您知道,我们正在完全重(zhong)新设计计算机的工作(zuo)方式。当然,这已(yi)经被比作(zuo)过(guo)去(qu)其他平台(tai)的转变,但时间会(hui)清(qing)楚(chu)地(di)表明(ming),这比以往的平台(tai)转变要深刻得多。原因(yin)就(jiu)在于,计算机不再只是一台(tai)指令驱动的计算机。它是一个意图理解的计算机。它当然理解我们与它的交(jiao)互方式,但它也理解我们的意思,我们要求它做什(shi)么,并且有能力进行推理、计划和迭代处理,并提出解决方案(an)。

因(yin)此(ci),计算机的每(mei)一个方面(mian)都(dou)在以这样的方式改(gai)变,即它不再检(jian)索预录的文件,而是现在生成与上下文相关的、智能的答案(an)。因(yin)此(ci),这将(jiang)改(gai)变世界各(ge)地(di)的计算堆栈。您看(kan)到了一个构建(jian),事实上,即使(shi)是PC计算堆栈也将(jiang)得到革命化。

而这仅仅是我们看(kan)到的,您知道,今天我们所看(kan)到的只是我们在实验室中正在做的工作(zuo)的开始,以及(ji)我们正在与世界各(ge)地(di)的所有初创公司、大公司和开发人员(yuan)一起做的事情(qing),这将(jiang)是非同寻常(chang)的。

摩(mo)根士丹利Joe Moore:

我理解您刚刚关于需求有多强劲的评(ping)论,市场(chang)对H200和Blackwell产品有很大的需求。您是否预计在从这些产品过(guo)渡时,Hopper和H100会(hui)有所暂停?人们会(hui)等待这些新产品吗(ma),这将(jiang)是一个好产品?还是您认为对H100的需求足以维持增长?

黄仁勋:

我们看(kan)到这个季度Hopper的需求在增加,我们预计随着我们过(guo)渡到H 200,需求将(jiang)超过(guo)供应一段时间,因(yin)为我们过(guo)渡到Blackwell。我,每(mei)个人都(dou)急于让他们的基础设施上线。原因(yin)就(jiu)是这样,因(yin)为他们正在省钱和赚钱,他们希望尽快这样做。

高盛Toshiahari:

我想问关于竞争的问题。我想您的许多云客户都(dou)宣布了,您知道的,新的或对现有内部计划的更新,与他们与您合(he)作(zuo)的工作(zuo)同时进行,您在多大程度上将(jiang)他们视为中长期竞争对手(shou)?在近期内,您认为他们是否主要限于解决内部工作(zuo)负载?还是他们可(ke)以更广泛地(di)解决未来的问题?谢谢。

黄仁勋:

是的,我们有几个不同之(zhi)处。

首先,Nvidia的加速计算架构允许客户处理他们整个流程的每(mei)一个方面(mian),从处理非结构化数据准备训练,到结构化数据处理、数据框架处理(如SQL)准备训练,再到训练和推理。正如我在讲话中提到的,推理已(yi)经发生了根本(ben)性的变化。现在是生成,不再只是试图检(jian)测猫(尽管这本(ben)身已(yi)经非常(chang)困难(nan))。现在需要生成猫的每(mei)一个像(xiang)素。所以生成过(guo)程是一个根本(ben)不同的处理架构,这也是Tensor RTLM备受(shou)欢迎的原因(yin)之(zhi)一。”

我们在使(shi)用相同芯片的架构上提升了三倍的性能,这说明(ming)了我们的架构和软件的丰富性。因(yin)此(ci),首先,你可(ke)以使(shi)用Nvidia来处理从计算机视觉(jue)到图像(xiang)处理、计算机图形学等所有计算模式。随着世界现在遭受(shou)计算成本(ben)和计算能耗上涨的困扰,因(yin)为通用计算已(yi)经达(da)到极限,加速计算才是可(ke)持续发展的方式。加速计算是你节省计算成本(ben)和能耗的途径(jing)。因(yin)此(ci),我们平台(tai)的多功能性为他们的数据中心带来了最低的总体拥有成本(ben)(TCO)。

第二,我们从不在云端。所以对于正在寻找平台(tai)进行开发的开发人员(yuan)来说,从Nvidia开始总是一个不错的选择(ze)。我们,我们在本(ben)地(di)。我们在云端。你在任(ren)何大小(xiao)和形状的计算机上。我们几乎无处不在。这就(jiu)是第二个原因(yin)。

第三个原因(yin)与事实有关,你知道,我们构建(jian)AI工厂,这变得越来越明(ming)显,AI不仅仅是芯片问题。当然,它从非常(chang)好的芯片开始,我们为我们的AI工厂构建(jian)了很多芯片,但它是一个系统问题。

事实上,甚至(zhi)AI现在是一个系统问题。它不仅仅是一个大型语言模型。它是一大堆大型语言模型的复杂系统,它们一起工作(zuo)。所以Nvidia构建(jian)系统的事实使(shi)我们能够优化我们所有的芯片,使(shi)它们作(zuo)为一个系统一起工作(zuo),能够拥有作(zuo)为一个系统运行的软件,并能够在整个系统中进行优化。

现在,让我们从一个简(jian)单的数字角度来看(kan),你知道,如果你有一个5亿美元的基础设施,你提高了两倍的性能,这是我们通常(chang)做的。当你提高基础设施的性能两倍时,它的价值就(jiu)增加了10亿美元。所有数据中心的芯片并不能支付它。因(yin)此(ci),它的价值确实非常(chang)特(te)别。这就(jiu)是为什(shi)么今天性能至(zhi)关重(zhong)要的原因(yin)。

你知道,这是在最高性能也是最低成本(ben)的时候,因(yin)为携带所有这些芯片的基础设施成本(ben)很高,资助数据中心、运营数据中心、随之(zhi)而来的复杂性,随之(zhi)而来的电力,随之(zhi)而来的房地(di)产,你知道,所有这些都(dou)结束(shu)了。所以最高性能也是最低TCO。

市场(chang)研究公司TD Cowen分析师(shi)Matt Ramsey:

我在数据中心行业工作(zuo)了一辈(bei)子。我从未见过(guo)你们推出的新平台(tai)的速度,以及(ji)你们获(huo)得的性能提升。训练速度提高了5倍,推理速度在GTC上提高了30倍,这真(zhen)是一件令人惊叹的事情(qing)。

但这也创造了一个有趣的对比,那就(jiu)是您当前一代产品,您的客户正在花费数十亿美元,它将(jiang)比产品的折旧周期更快地(di)不再与您的新产品竞争。所以我想请您,如果您不介意的话,谈一谈您如何看(kan)待这种情(qing)况随着Blackwell的推出而发展。

他们将(jiang)拥有一个非常(chang)大的安装基础,显然是软件兼容的,但是有一个非常(chang)大的安装基础的产品,其性能远不如您的新一代产品。我很想听(ting)听(ting)您对客户在这条道路(lu)上的看(kan)法。 是

黄仁勋:

我想提出三点。如果您的建(jian)设进度是5%,而您的建(jian)设进度是95%,您的感觉(jue)会(hui)非常(chang)不同。而且,因(yin)为您无论如何都(dou)只进行了5%的建(jian)设,您知道,您必须尽可(ke)能快地(di)建(jian)造,当Blackwell到来时,它将(jiang)是极好的。

然后(hou),在Blackwell之(zhi)后(hou),正如您提到的,我们还有其他的Blackwells即将(jiang)到来。然后(hou),有一个短(duan)暂的,您知道的,我们以一年的节奏向世界解释。我们希望我们的客户能看(kan)到我们的路(lu)线图,尽可(ke)能地(di)了解他们。

但他们无论如何都(dou)处于建(jian)设的早期阶段,所以他们必须继续建(jian)设,所以将(jiang)会(hui)有很多芯片向他们袭来,他们只需要继续建(jian)设,如果愿意的话,通过(guo)性能平均(jun)化进入其中,所以这是聪明(ming)的做法。

他们今天需要赚钱。他们想今天省钱,而且时间对他们来说真(zhen)的很有价值。

让我给您举一个时间非常(chang)有价值的例子,为什(shi)么立即建(jian)立数据中心的想法如此(ci)有价值,以及(ji)获(huo)得训练时间如此(ci)有价值。原因(yin)就(jiu)是这样,因(yin)为下一个达(da)到下一个主要里程碑的公司将(jiang)宣布一项(xiang)突(tu)破性的AI。而之(zhi)后(hou)的第二个公司只能宣布比原来好0.3%的东(dong)西。

所以问题是,您想成为反复交(jiao)付突(tu)破性AI的公司,还是想成为交(jiao)付比原来好0.3%的公司?这就(jiu)是为什(shi)么这场(chang)比赛如此(ci)重(zhong)要的原因(yin),因(yin)为在所有技术竞赛中,这场(chang)比赛非常(chang)重(zhong)要。而且您正在看(kan)到这场(chang)竞赛在多家公司中展开,因(yin)为这对公司来说非常(chang)关键,以信任(ren)领导力并想在您的平台(tai)上建(jian)设,并且知道他们正在建(jian)设的平台(tai)将(jiang)越来越好。

所以领导力非常(chang)重(zhong)要,训练时间非常(chang)重(zhong)要。提前三个月完成项(xiang)目的时间,为了获(huo)得训练时间。您知道,提前三个月开始一个三个月的项(xiang)目。提前三个月开始是一切。所以这就(jiu)是为什(shi)么我们现在如此(ci)疯狂地(di)建(jian)立hopper系统的原因(yin),因(yin)为下一个里程碑就(jiu)在拐角处。所以这就(jiu)是第二个原因(yin)。

您刚才发表的第一个评(ping)论真(zhen)的很棒(bang),那就(jiu)是,您知道,我们进展如此(ci)之(zhi)快,进步(bu)如此(ci)之(zhi)快,因(yin)为我们拥有所有这些统计数据。我们在这里构建(jian)了整个数据中心,我们可(ke)以监控一切,测量(liang)一切,跨一切进行优化。

我们知道所有的瓶颈在哪里。我们不是在猜测。我们不是在制作(zuo)看(kan)起来不错的Powerpoint幻灯(deng)片。我们实际上,您知道的,我们也喜欢我们的Powerpoint幻灯(deng)片看(kan)起来不错,但我们正在交(jiao)付在规模上表现出色的系统。我们之(zhi)所以知道它们在规模上表现出色的原因(yin)是因(yin)为我们构建(jian)了它们所有。

现在,我们做的一件事有点奇迹,那就(jiu)是我们在这里构建(jian)了整个AI基础设施,但然后(hou)我们将(jiang)其解聚并集(ji)成到客户的数据中心,无论他们喜欢什(shi)么方式。但我们知道它将(jiang)如何表现,我们知道瓶颈在哪里,我们知道我们需要在哪里与他们一起优化,我们知道我们需要帮(bang)助他们改(gai)进他们的基础设施,以实现最佳性能。

这种对整个数据中心规模的深刻、亲密的了解,基本(ben)上就(jiu)是今天让我们与众不同的原因(yin)。您知道,我们从头(tou)开始构建(jian)每(mei)一个芯片。我们确切地(di)知道整个系统中的处理方式,所以我们知道它将(jiang)如何表现,以及(ji)如何利用每(mei)一代产品获(huo)得最佳效果。所以我很感激您提出的这三个观点。

独立投资银行咨询Evercore分析师(shi)Marco Pacas:

在过(guo)去(qu),您曾说过(guo),通用计算生态系统通常(chang)主导了每(mei)个计算时代。我相信论点是它们可(ke)以适应不同的工作(zuo)负载,获(huo)得更高的利用率,推动计算周期下降。这是您推动通用GPU计算生态系统加速计算的动机。如果我误解了您的观察,请告(gao)诉我。

所以问题是,鉴于推动您解决方案(an)需求的工作(zuo)负载是由神经网络训练和推理驱动的,表面(mian)上看(kan),这似乎是一个有限的工作(zuo)负载数量(liang),那么它们也可(ke)能倾向于定制解决方案(an)。那么问题是,通用计算框架是否变得更加有风险?或者是否有足够的变化性或这些工作(zuo)流程的快速演变,支持那个历史性的通用框架。谢谢。

黄仁勋:

是的,这些加速计算是多功能的,但我不会(hui)称之(zhi)为通用。比如,我们不会(hui)很擅(shan)长运行电子表格(ge),您知道,这是为通用计算而设计的。而且,控制操作(zuo)系统代码的循环可(ke)能对通用计算不是很好,对我们的,对我们的,对我们的加速计算不是很好。

所以我会(hui)说我会(hui)说我们是多功能的,这通常(chang)是我描述它的方式。多年来,我们能够加速的应用程序领域非常(chang)丰富,但它们都(dou)有很多的共同点。您知道,可(ke)能有一些深刻的差异,但有共同点,它们都(dou)是可(ke)以并行运行的。它们都(dou)是高度线程化的。5%的代码代表了99%的运行时间,

例如。这些都(dou)是加速计算的属性。我们平台(tai)的多功能性和我们设计整个系统的事实是,在过(guo)去(qu)的10年左右,你们在这些电话会(hui)议(yi)中问我的初创公司的数量(liang)相当大。而且每(mei)一个,因(yin)为它们的架构非常(chang)脆弱,当生成性AI出现时,在扩散(san)模型出现时,当下一个模型出现时,现在下一批模型即将(jiang)出现。

然后(hou)突(tu)然之(zhi)间,看(kan)看(kan)这些具有记忆的大型语言模型。因(yin)为大型语言模型需要有记忆,这样它们才能与您进行对话,理解上下文。突(tu)然之(zhi)间,Grace内存(cun)的多功能性变得非常(chang)重(zhong)要。所以每(mei)一个这些生成性AI的进步(bu),以及(ji)AI的进步(bu),真(zhen)的需要的不是为一个模型设计的一个小(xiao)部件,而是有一些对这个整个领域真(zhen)正很好的部件。

但遵循软件的首要原则,软件将(jiang)继续发展,软件将(jiang)继续变得更好更大。我们相信这些模型的扩展。有很多原因(yin),我们将(jiang)在未来几年内轻松地(di)扩展一百倍,我们期待着它,我们为此(ci)做好了准备。所以平台(tai)的多功能性真(zhen)的是关键。而且,如果您太脆弱、太具体了,您可(ke)能只是建(jian)一个FPGA或者建(jian)一个ASIC或者类似的东(dong)西,但那几乎不是一台(tai)计算机。

Raymond James分析师(shi)Serena Pajuri:

实际上,我想澄清(qing)一下你刚才说的关于GB200系统的内容。看(kan)起来对系统的需求非常(chang)强劲。历史上,我认为你们卖出了很多AGX板(ban)卡和一些GPU,而系统业务相对较小(xiao)。所以我很好奇,为什(shi)么现在你们看(kan)到对系统有这么强的需求?这是因(yin)为TCO(总体拥有成本(ben))吗(ma)?还是其他什(shi)么原因(yin)?或者是因(yin)为架构?

黄仁勋:

谢谢你的提问。实际上,我们销售GB200的方式是一样的。我们分解所有有意义的组件,并将(jiang)它们集(ji)成到计算机制造商中。今年我们有100种不同的计算机SIS配置(zhi)即将(jiang)推出用于Blackwell,而这超出了预期。

坦白说,Hopper只有一半的数量(liang)。而这是其巅峰,最初甚至(zhi)远少于此(ci)。你会(hui)看(kan)到液冷版本(ben)、风冷版本(ben)、x86版本(ben)、Grace版本(ben)等等。很多系统正在设计中,并由我们所有的优秀合(he)作(zuo)伙伴提供。基本(ben)没有什(shi)么变化。

当然,Blackwell平台(tai)极大地(di)扩展了我们的产品供应。CPU的集(ji)成和更高密度的计算能力,液冷技术将(jiang)为数据中心节省大量(liang)的资金和电力供应,不仅更节能,而且是一个更好的解决方案(an)。它更昂贵,意味着我们为数据中心提供了更多的组件,每(mei)个人都(dou)会(hui)受(shou)益。

数据中心将(jiang)从高性能网络、网络交(jiao)换机中获(huo)得更高的性能。当然,还有以太网。这样我们就(jiu)可(ke)以将(jiang)Nvidia AI大规模地(di)带给那些只操作(zuo)或只熟悉以太网的客户,因(yin)为他们的生态系统就(jiu)是如此(ci)。因(yin)此(ci),Blackwell更加昂贵,我们这一代有更多的产品提供给我们的客户。”

Truest Securities分析师(shi)William Stein:

“很好。谢谢你回答我的问题,Jensen。在某个时刻,Nvidia决定,虽然有一些相当不错的CPU可(ke)用于数据中心操作(zuo),但你们的基于ARM的Grace CPU提供了一些真(zhen)正的优势,使(shi)得这种技术值得交(jiao)付给客户,这可(ke)能与成本(ben)或功耗或Grace与Hopper、Grace与Blackwell之(zhi)间的技术协同有关。

你能否谈谈是否在客户端也可(ke)能出现类似的动态情(qing)况?尽管有非常(chang)好的解决方案(an),比如你提到的Intel和AMD是非常(chang)好的合(he)作(zuo)伙伴,并且提供了出色的x86产品,但在新兴的AI工作(zuo)负载中,Nvidia可(ke)能提供一些其他人难(nan)以实现的优势。”

黄仁勋:

您提到了一些非常(chang)好的理由。对于许多应用程序,我们与x 86合(he)作(zuo)伙伴的合(he)作(zuo)确实非常(chang)好,我们共同构建(jian)了出色的系统。 但是Grace使(shi)我们能够做一些在今天的系统配置(zhi)中不可(ke)能的事情(qing)。Grace和Hopper之(zhi)间的内存(cun)系统是连贯且连接(jie)的。这两个芯片之(zhi)间的互连,你知道,把它们称为两个芯片几乎很奇怪,因(yin)为它们就(jiu)像(xiang)一个超级芯片。它们通过(guo)这种每(mei)秒数TB的接(jie)口连接(jie)在一起。是的,这太棒(bang)了。而且,Grace使(shi)用的内存(cun)是lpddr。这是第一个数据中心级低功耗内存(cun)。所以我们在每(mei)个节点上都(dou)节省了很多电力。

最后(hou),由于架构,因(yin)为我们可(ke)以用整个系统创建(jian)自(zi)己的架构,现在我们可(ke)以创建(jian)一个真(zhen)正大的MV Link域,这对于下一代大型语言模型进行推理至(zhi)关重(zhong)要。所以你看(kan)到GB 200有一个72节点MV Link域。这就(jiu)像(xiang)72个Blackwells连接(jie)在一起,形成一个巨大的GPU。所以我们需要Grace Blackwells才能做到这一点。所以我,如果有像(xiang)那样的机会(hui),你知道,我们会(hui)探(tan)索它。而且,正如你在昨天的构建(jian)中看(kan)到的那样,我认为非常(chang)棒(bang)。

正如Satya宣布的下一代PC是Copilot plus PC,它在Nvidia的RTX GPU上运行得非常(chang)好,这些GPU正在笔记本(ben)电脑上发货(huo)。但它也支持ARM,非常(chang)出色。所以它为系统创新打开了机会(hui),即使(shi)是PC。

Kendra Fitzgerald分析师(shi)CJ Muse:

我想问Jensen一个稍微长远的问题。我知道Blackwell甚至(zhi)还没有发布,但显然投资者是前瞻性的,而且在潜在的GPU和客户的竞争不断增加的情(qing)况下,您如何看(kan)待Nvidia在创新方面(mian)的步(bu)伐,过(guo)去(qu)十年的百万倍扩展以及(ji)在精密度、Grace、连贯连接(jie)方面(mian)取得的真(zhen)正令人印象深刻的进展。展望未来,未来十年需要解决哪些摩(mo)擦?我想更重(zhong)要的是,您今天愿意与我们分享什(shi)么?

嗯,我可(ke)以宣布,在Blackwell之(zhi)后(hou),还会(hui)有另一款芯片,我们将(jiang)以一年为周期进行更新。因(yin)此(ci),你们也可(ke)以指望我们以非常(chang)快的速度推出新的网络技术。

我们正在发布以太网的Spectrum X,但我们完全投入以太网,我们有一个非常(chang)令人兴奋的以太网路(lu)线图。我们拥有丰富的合(he)作(zuo)伙伴生态系统。戴(dai)尔宣布他们将(jiang)Spectrum X推向市场(chang)。我们有丰富的合(he)作(zuo)伙伴和客户,他们将(jiang)宣布将(jiang)我们整个人工智能工厂架构推向市场(chang)。

因(yin)此(ci),对于那些希望获(huo)得最终性能的公司,我们有无限带宽(kuan)计算结构。Infiniband是一种计算结构,以太网和网络。多年来,Infiniband起初是一种计算结构,逐渐变成了一种越来越好的网络。以太网是一个网络。通过(guo)Spectrum X,我们将(jiang)使(shi)其成为一个更好的计算结构。我们致力于所有3个链(lian)接(jie),从Envy链(lian)接(jie),通勤计算结构到无限带宽(kuan)计算结构,再到以太网网络计算结构。

因(yin)此(ci),我们将(jiang)以非常(chang)快的速度推进所有这三个方面(mian)。您将(jiang)看(kan)到新的交(jiao)换机、新的下一步(bu)、新的功能、运行在所有这三个方面(mian)的新软件堆栈。新的CPU、新的GPU、新的网络、下一步(bu)新的交(jiao)换机、新的芯片数量(liang)以及(ji)所有这一切美好的事情(qing)都(dou)是运行在Kuda上,都(dou)运行我们的整个软件堆栈。

因(yin)此(ci),如果您今天投资我们的软件堆栈,而不需要做任(ren)何事情(qing),它只会(hui)变得越来越快。如果您今天投资我们的架构,而不需要做任(ren)何事情(qing),它将(jiang)变得越来越多的云和越来越多的数据中心,一切都(dou)会(hui)变得更好。因(yin)此(ci),我认为我们正在带来的创新速度将(jiang)一方面(mian)提高能力,另一方面(mian)降低TCO。因(yin)此(ci),我们应该能够通过(guo)Nvidia架构为这个新时代的计算扩展,并开始这个新的工业革命,在那里我们不再只是制造软件,而是制造人工智能代币,我们将(jiang)以规模实现这一目标。谢谢。

发布于:上海市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7