中欧体育登录英伟达市值一夜大涨16%跻身全球第四为什么?

发布时间: 2024-02-25 23:40:27   来源:中欧体育app全站 作者:中欧体育app下载官网  

  2月22日晚,英伟达市值一夜大涨 16.4% 达到 1.96 万亿美元,创下历史新高,并一举超越谷歌和亚马逊跻身全球第四,仅次于微软、苹果、沙特阿美。

  英伟达单日市值增加 2770 亿美元,约等于 1.5 个英特尔,这也是美股历史上个股最大单日市值增长。

  2月22日英伟达刚刚公布了截至今年 1 月 28 日的 2024 财年第四季度财报。在财报公布前一天,英伟达股价下跌 4.35%,出现今年年内最大单日跌幅;财报公布当天,股价再跌 2.85%。

  但英伟达近乎满分的答卷一夜之间填满了投资者的信心。该季度英伟达营收为 221 亿美元,同比增长 265%,环比增长 22%。市场预期为 204.1 亿美元;利润方面,净利润为 123 亿美元,同比增长了 769%,按美国通用会计准则下,本季度毛利率达 76%,市场预期 75%。

  财报电话会上,英伟达首席执行官黄仁勋称,对 AI 所依赖的计算能力的需求仍然是极其巨大的,“全球范围内,企业、行业和各国的需求都在激增。”

  财报显示,第四季度营收达到创纪录的 184 亿美元,环比增长 27%,同比增长 409%。全年收入增长 217%,达到创纪录的 475 亿美元。

  财报电话会上,英伟达高管解释道,第四季度数据中心的增长是由跨行业、案例和地区的生成方式人工智慧和语言模型的训练和推理所推动的。其中,约 40% 来自人工智能推理。

  其中,消费互联网公司是英伟达最大的客户类别之一。从搜索到电子商务、社交媒体、新闻和视频服务以及娱乐的公司都在使用人工智能优化产品体验,甚至直接影响营收。Meta便在最新季度财报中表示,更准确的预测和广告商业绩的改善有助于其收入大幅增长。

  22日早上,英伟达还宣布与 Google 合作优化其最先进的新 Gemma 语言模型,以加速其在云端、数据中心和 PC 中 NVIDIA GPU 上的推理。

  针对中国地区,在美国政府 10 月份实施出口管制法规后,英伟达数据中心收入大幅下降。第四季度,中国数据中心收入占数据中心收入的中个位数百分比,并预计第一季度将保持在类似的范围内。

  第四季度,游戏业务营收为 29 亿美元,环比持平,同比增长 56%。全年收入增长 15%,达到 104 亿美元。

  此外,AI PC是本届 CES 上的一枝独秀,英伟达自然也没有缺位。英伟达宣布为其超过 1 亿台 RTX AI PC 的安装基础提供生成式 AI 功能,包括用于加速大型语言模型推理的Tensor-RT™ LLM ,以及让用户使用自己的内容个性化聊天机器人的技术演示Chat with RTX 。

  英伟达还推出了NVIDIA Avatar Cloud Engine 的微服务,允许游戏和应用程序开发人员将最先进的生成式 AI 模型集成到不可玩的角色中。

  第四季度,专业可视化业务营收为 4.63 亿美元,环比增长 11%,同比增长 105%。全年收入增长 1%,达到 16 亿美元。

  财报电话会显示,本季度的连续增长是由 RTX Ada 架构 GPU 的丰富组合持续增长所推动的。企业正在更新其工作站,以支持与生成型人工智能相关的工作负载,例如数据准备、LLM 微调和检索增强生成。

  这些推动需求的关键垂直行业包括制造业、汽车和机器人技术。汽车行业也是 NVIDIA Omniverse 的早期采用者,因为该行业寻求将工厂和汽车从设计到建造、模拟、操作和体验的工作流程数字化。在 CES 上,英伟达宣布 Brickland、WPP 和 ZeroLight 等创意合作伙伴和开发商正在构建 Omniverse 支持的汽车配置器。

  第四季度,汽车业务营收为2.81亿美元,环比增长8%,同比下降4%。全年收入增长 21% 至 11 亿美元。

  汽车业务是黄仁勋继游戏、数据中心之后被寄予厚望的第三大核心业务。但从今年的表现来看,似乎不尽如人意。

  财报透露,其后续产品 NVIDIA DRIVE Thor 通常专为视觉Transformer设计,可提供更多 AI 性能,并将广泛的智能功能集成到单个 AI 计算平台中,包括自动驾驶和停车、驾驶员和乘客监控以及 AI 驾驶舱功能,并将明年上市。

  同时,本季度有多家汽车客户发布公告,理想汽车、长城汽车、吉利旗下高端电动汽车子公司 ZEEKR 以及小米电动汽车均发布了基于 NVIDIA 的新车。

  第一个是从通用计算到加速计算的转变。通用计算正开始失去动力。您可以从云服务商的扩展和许多数据中心(包括我们自己的通用计算中心)中看出,折旧时间从 4 年延长到 6 年。当您无法像以前那样从根本上显著提高其吞吐量时,就没有理由更新更多 GPU。所以你必须加速一切。这是 NVIDIA 一段时间以来一直在开拓的领域。通过加速计算,您可以显著提高能源效率,可以将数据处理成本大幅降低 20 倍,这是一个巨大的数字。

  当然还有速度。这种速度令人难以置信,以至于我们实现了第二次全行业转型——生成式人工智能。请记住,生成式人工智能是一种新的应用,它正在启用一种新的软件开发方式,新类型的软件正在被创建,这是一种新的计算方式。你无法在传统的通用计算上进行生成式人工智能。你必须加速它。

  第三,它正在催生一个全新的行业。我们现在有一个关于人工智能生成的新型数据中心,一个人工智能生成工厂,它需要原材料,也就是数据。它用 NVIDIA 构建的这些 AI 超级计算机对其进行改造,并将它们变成极其有价值的 Token。这些 Token是 人们在 ChatGPT 或 Midjourney 上体验到的,或者如今的搜索也因此得到了增强。现在,您所有的推荐系统都受到了随之而来的超个性化的增强。所有这些令人难以置信的数字生物学初创企业都在生产蛋白质和化学品,这样的例子不胜枚举。

  我们业务的推理部分增长巨大,估计约为 40%。训练量在持续,因为这些模型变得越来越大,推理量也在增加。但我们也在向新行业多元化发展。大型云服务商仍在继续建设。还有一个全新的类别,他们是专注于 NVIDIA AI 基础设施、GPU 的云服务商。

  您会看到企业软件平台部署人工智能。ServiceNow 就是一个非常非常好的例子。你可以看到 Adobe,SAP 和其他公司。您会看到消费者互联网服务正在通过生成式人工智能增强过去的所有服务,因此他们可以创建更多超个性化的内容。

  我们正在谈论工业生工智能。现在我们的行业代表了数十亿美元的业务:汽车、健康、金融服务,总的来说,我们的垂直行业现在是数十亿美元的业务。

  当然,还有主权人工智能(sovereign AI)。每个地区的语言、知识、历史、文化都不同,他们拥有并希望使用自己的数据,训练它以创建自己的数字智能,并自己提供这些服务。主权 AI 基础设施正在日本、加拿大、法国等许多其他地区建设。所以我的预期是,在美国、在西方所经历的,肯定会在全世界复制。

  去年,我们看到生成性AI真正成为一个全新的应用空间,一种全新的计算方式,一个全新的行业正在形成,这正在推动我们的增长。

  黄仁勋:这个数字可能被低估了。一年前,推荐系统——地球上最大的软件引擎——都是基于 CPU 的。但最近向深度学习和生成式人工智能的迁移确实让这些推荐系统现在直接进入了 GPU 加速的道路,现在推荐系统的每一个步骤都用到了 GPU。

  世界上几乎每一家大公司都必须运行这些大型推荐系统。每当您使用 ChatGPT 时,都会对其进行推理。每当你听说 Midjourney 以及他们为消费者生成的东西的数量时,当你看到我们与 Getty 和 Adobe 的 Firefly 所做的工作时,这些都是生成模型。一年前,这些案例都不存在。这样的例子还在继续。

  黄仁勋:总体而言,我们的供应正在改善。从晶圆、封装、内存、所有电源调节器到收发器、网络和电缆,以及你所能想到的我们发货的组件列表。人们认为 NVIDIA GPU 就像一个芯片,但NVIDIA Hopper GPU有 35000 个部件。它重 70 磅。我们构建的这些东西真的很复杂。人们称它为AI超级计算机是有充分理由的。如果你曾经看过数据中心的背面,那些系统,布线系统令人难以置信。这是世界上见过的最密集、最复杂的网络布线系统。

  然而,每当我们有新产品时,它从 0 增长到一个非常大的数字,你不能一夜之间做到这一点。一切都是逐步增长的。现在我们正在增加 H200 的产量,我们无法在短期内合理地跟上需求。

  我们正在增加 Spectrum-X 的产量,这是我们全新的产品,进入以太网领域。InfiniBand 是 AI 专用系统的标配。以太网在 Spectrum-X 之前,并不是一个很好的扩展系统。但是有了 Spectrum-X,我们在以太网的基础上增加了新的功能,比如自适应路由、拥塞控制、噪声隔离或流量隔离,以便我们能够为 AI 优化以太网。所以 InfiniBand 将是我们 AI 专用基础设施,Spectrum-X 将是我们 AI 优化的网络。

  所以,对于所有新产品,需求总是大于供应。这正是新产品的本质,我们尽可能快地工作以赶上需求。总的来说,我们的供应正在非常好地增加。

  黄仁勋:首先,我们的云服务提供商对我们的产品路线图和过渡有着非常清晰的了解。与云服务商之间的这种透明度让他们有信心知道应该在何时何地投放哪些产品。因此,他们能够根据我们的能力了解到最佳时机,并且知道数量和分配情况。我们尽力做到公平分配,并避免不必要的分配。

  当数据中心还没有准备好时,为什么要分配资源呢?没有什么比让任何东西闲置更困难的了。在终端市场方面,我们有一个与 OEM、ODM、云服务商以及非常重要的终端市场共同构成的优秀生态系统。

  NVIDIA 真正独特的地方在于,我们为我们的客户、合作伙伴、云服务商和 OEM 带来客户。所有这些初创公司——大公司、医疗保健、金融服务、汽车等行业都在 NVIDIA 的平台上工作。我们直接支持他们。而且,我们经常可以通过向云服务商分配资源的同时,将客户带给云服务商来实现双赢。所以这个生态系统是充满活力的。但在其核心,我们希望公平分配,避免浪费,并寻找机会连接合作伙伴和最终用户。

  问:英伟达的客户如何看待他们今天正在进行的 NVIDIA 投资的长期可用性?今天的训练集群会不会变成明天的推理集群?

  黄仁勋:这真的是非常酷的部分。如果您看看我们之所以能够如此大幅度提升性能的原因,那是因为我们的平台有两个特点。一是它是加速的,二是它是可编程的。NVIDIA 是唯一一个从最开始,字面意义上的最开始,当 CNNs 和 Alex Krizhevsky、Ilya Sutskever 以及 Geoff Hinton 首次揭示 AlexNet 开始,一直到 RNNs、LSTMs、每种 RL、深度 RL、变换器、每种视觉变换器、多模态变换器,以及现在的时间序列内容。每一种AI的变体,我们都支持它,为我们的堆栈优化它,并将其实现在我们的安装基础中。

  这真的是非常了不起的部分。一方面,我们可以发明新的架构和技术,比如我们的张量核心变换器引擎,改进新的数值格式和处理结构,就像我们在不同代的张量核心中所做的那样,同时支持现有的安装基础。因此,我们把所有新的软件算法发明,所有的发明,新的行业模型发明,它们都在我们的安装基础上运行。

  另一方面,每当我们看到一些性的东。


中欧体育登录