全文 您所在的位置:网站首页 声网财报q3 全文

全文

2024-01-14 11:44| 来源: 网络整理| 查看: 265

安装新浪财经客户端第一时间接收最全面的市场资讯→【下载地址】

专题:聚焦美股2023年第三季度财报

  英伟达今日公布了该公司的2024财年第三财季财报。报告显示,英伟达第三财季营收为181.20亿美元,与上年同期的59.31亿美元相比增长206%,与上一财季的135.07亿美元相比增长34%;净利润为92.43亿美元,与上年同期的6.80亿美元相比增长1259%,与上一财季的61.88亿美元相比增长49%;不按照美国通用会计准则的调整后净利润为100.20亿美元,与上年同期的14.56亿美元相比增长588%,与上一财季的67.40亿美元相比增长49%(注:英伟达财年与自然年不同步,2024年1月30日至2024年1月29日为2024财年)。  

  详见:英伟达第三财季营收181.2亿美元 同比增长206%

  财报发布后,英伟达总裁兼首席执行官黄仁勋(Jensen Huang)和执行副总裁兼首席财务官科莉特·克雷斯(Colette Kress)等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。

  以下是分析师问答环节主要内容:

  美银证券分析师Vivek Arya:随着英伟达迈入生成式人工智能(Generative AI)领域,您认为目前英伟达的产品正处于产品采用曲线的哪一阶段?我在回顾英伟达数据中心发展轨迹时发现明年数据中心支出将占近30%。所以想请问管理层具体会关注哪些指标?

  黄仁勋:生成式人工智能是我们几十年来所见过最大的、最颠覆性的软件、硬件变化。生成式人工智能的核心,也是其最令人兴奋的地方在于,过去基于检索的计算方法现如今得到了增强,加入了生成式人工智能技术。这几乎改变了一切——无论是在文字、图像、视频、3D技术领域,抑或是化学等领域。过去所有由人类负责手动处理的数据现如今都可以应用生成式人工智能。换言之,我们对数据处理的方式发生了变化:过去往往是显性检索;现如今则是基于自然语言检索、基于意图检索等。

  因此,我们对目前公司在Dropbox等方面的工作进展非常满意,同时也非常兴奋,未来也会有更多新消息与大家分享。

  在这其中,受生成式人工智能影响最大的领域之一便是价值近一万亿美元的软件行业。在过去的几十年里,软件行业一直是人工打造工具;但如今行业内出现了全新的辅助软件,换言之,工具将无需手动应用,而是会有辅助软件来协助用户使用。我们也会持续将公司的人工智能团队与上述辅助软件整合,打造现代版本的企业服务软件。

  这种转变表面上是软件行业的革新与变化,实际上软件运行方式的转变也在驱动底层硬件的变化。这种转变呈现出两种趋势。

  一是加速计算。过去的通用计算非常浪费能源、成本。而如今我们拥有更好的解决方案,即加速计算。加速计算不仅能帮我们节省下大量能源,同时也能帮我们大幅节省时间与成本。因此,我们可以说加速计算正在改变传统的计算方法。这点也可以从新型数据中心的建设中得到验证。

  你问题中提到的是我们的传统数据中心。但这种新型数据中心与传统数据中心完全不同。传统数据中心往往是多程序同时运行并由多人使用,换言之即多租户使用同一基础设施,且传统数据中心中会储存大量文件。而新的数据中心则不同,它的应用程序较少,往往是单一租户对应单一程序。新的数据中心不仅能够处理数据、训练模型,还能够结合AI技术。我们将这种新型数据中心称为“AI工厂”(AI Factory)。现如今,我们也看到各个国家、各个地区都在打造自己的AI工厂。

  你在问题中提到,英伟达在这种新计算方式的过渡中处于哪一阶段。在我看来,这种计算方式过渡带来的第一波浪潮便是大语言模型初创公司、人工智能初创公司、消费者互联网初创公司的大波涌现。英伟达也正处在这一阶段。

  与此同时,大家也会看到我们将会与企业软件公司合作,帮助他们打造聊天机器人与辅助软件,从而强化他们平台上的工具。举例来说,大家可能会看到一批GPU集群的通信服务提供商(CSP)在全球各地涌现。通过人工智能基础设施,不同国家、地区的人们正逐渐认识到应当利用自身数据、保留本国文化、处理数据并研发自己的人工智能。无论是印度、瑞典,还是日本、法国,这点都能得到验证。可以这样说,越来越多的国家、地区都在打造自己的人工智能云基础设施。据我估计,几乎全球每个主要地区、每个主要国家都会拥有自己的人工智能云。

  因此,随着生成式人工智能技术浪潮席卷各个行业、各个企业、各个地区,我相信大家会看到越来越多的新进展。于英伟达而言,我们也正处在这种计算变化浪潮的开始阶段。

  富国银行分析师Aaron Rakers:我的问题有关公司的网络业务。我看到财报显示,英伟达网络业务同比增长155%,且实现季度连续强劲增长,业务收入接近25至30亿美元。我很好奇管理层如何看待以太网的未来发展,能否请管理层谈一谈英伟达Spectrum-X网络平台与传统以太网之间的差异?

  黄仁勋:英伟达的网络业务销售额已经超过100亿美元,且未来规模还会进一步扩大。

  正如您在问题中所提到的那样,近期我们在网络业务中增添了新网络平台。绝大多数大型AI工厂都适用英伟达InfiniBand标准网络架构,其原因不仅在于数据运行速率与低延迟,它的流量控制方式也非常重要。

  InfiniBand标准网络架构对人工智能、多租户超大规模以太网环境、流量模式等的处理方式完全不同。借助 InfiniBand,我们不仅能够进行流量控制、自适应路由、噪声隔离,InfiniBand的延迟速率也非常低。这是InfiniBand的天然优势。

  InfiniBand绝不仅仅是一种网络,它更是一种计算架构。我们将许多软件功能都融入了InfiniBand结构之中。也正因如此,无论是以太网与InfiniBand之间还是InfiniBand与AI工厂之间,它们都有着深远的巨大差异。而在这种差异的背后,大家也知道我们对AI工厂刚刚进行了20亿美元的基础设施投资。随着运营规模的扩大,整体效率20%、25%、30%的提升将带来数亿美元的价值。可以这样说,对AI工厂而言,InfiniBand的价值是不可否认的。

  而随着我们将AI引入企业计算中,我们希望每个公司都能打造独有的定制化人工智能。英伟达也在基于内部专有数据、专有技能打造适合我们自身的人工智能。举例来说,前段时间我们谈到过目前公司正在打造的模型ChipNeMo,与此同时,我们也在打造其他模型。

  总的来说,在英伟达公司内部我们将打造数十甚至上百个定制AI模型以供公司员工使用。对于这种定制模型,它不需要像AI工厂中用作训练的模型那样高性能,它能够在以太网环境中运行就可以了。

  因此,我们开发了以太网扩展平台,目的并非要取代以太网,而是与以太网实现百分百协同。通过BlueField为以太网增添端到端的解决方案,我们能够在扩展平台上实现InfiniBand的部分功能(非全部功能)。

  目前来看,我们对当前取得的成果感到满意。我们也希望能为英伟达大型企业合作伙伴提供解决方案,将产品推向市场。比如惠普、戴尔、联想等已经采用了英伟达AI企业软件堆栈,通过与BlueField集成,他们能够为全球各地的企业用户提供大体量销售团队与经销商网络服务以及人工智能解决方案。

  摩根士丹利分析师Joe Moore:我的问题有关英伟达Grace Hopper超级芯片。管理层如何看待其在微处理器上的能力?以及相比使用传统H100芯片的应用,使用Grace Hopper超级芯片将会有哪些不同?

  黄仁勋:目前Grace Hopper超级芯片已经投入大批量生产,我们很期待明年在高性能计算与人工智能基础设施方面的设计。目前,我们正快速将这款首个数据中心CPU发展为价值数十亿美元的产品线,这于我们而言也是非常大体量的产品线。

  但Grace Hopper超级芯片的能力确实相当惊人。它能在向量数据库领域,即所谓的RAG(检索增强生成技术)领域创建快且大内存的计算节点,通过专有数据或事实数据帮助你打造生成式人工智能模型。此外,Grace Hopper芯片还能帮助用户打造高上下文长度的应用程序或生成式模型。在询问之前,用户可以将整本书存储之系统内存中,从而得到较高的上下文长度。由Grace Hopper芯片打造的生成式模型一方面能保持和用户的自然交互,另一方面能快速引用专有数据、特定领域数据、用户数据等,降低人工智能幻觉。

  此外,Grace Hopper芯片也能为那些想要拥有不同于x86架构CPU的用户提供服务。举例来说,比如欧洲超级计算中心或者某家欧洲企业想要打造自己的ARM生态系统,或者某家CSP希望转向ARM生态等等。Grace Hopper超级芯片都能对他们有所助力。

  总而言之,Grace Hopper超级芯片成功背后的原因有很多,现在一切都还刚刚开始。我们相信Grace Hopper超级芯片是一款全能产品。

  瑞银分析师Timothy Arcuri:我的问题有关管理层对公司收入的预期。我清楚影响收入变动的因素很多,现在距离2024年还有一段时间,但管理层之前提到2024年不会是英伟达数据中心收入的峰值年。我想请问管理层,这是否意味着您认为数据中心正向增长的势头会持续至2025年?

  黄仁勋:我们完全相信英伟达数据中心的增长势头能保持到2025年。原因如下。

  首先,我们正在大幅扩大供应。目前,英伟达的供应链是全球范围内最广泛、规模最大、能力最强的。很多人认为GPU不过是一个小小的芯片,但实际上英伟达HGX H100、Haper HGX拥有超35000个零件,它们的重量能达到70磅,甚至它们的无源元件也非常惊人。我们的芯片不仅包含高压部件、高频部件,甚至也包括高电流部件。可以这样说,英伟达的芯片就好比一台超级计算机,而测试一台超级计算机的唯一方法便是通过另一台超算机。从这个角度来看,我们的芯片不仅制造流程复杂,测试过程也很复杂;不仅运输困难,芯片的安装也很不容易。

  因此,英伟达HGX供应链的方方面面都很复杂,但我们卓越的团队仍然完成了这项艰巨任务,积极拓展了供应链,并将HGX与英伟达的网络、收发器、电缆、交换机都进行了链接。这其中涉及的复杂性难以想象。在这里我也想向我们伟大的团队表达敬意,我为他们的成绩而感到自豪。

  此外,我们也在不断拓展新客户,研发新产品。正如我之前提到的,不同地区、不同国家都在迅速研发GPU专用云,打造自己的专用人工智能云。这是因为人们已经认识到不能将本国的知识、文化“出口”给他人,这种风险他们承担不起。

  他们必须具备打造专属本国的人工智能云的技能。而在这一点上,我们能为他们提供帮助,帮助各国建立专有的国家级人工智能。

  另外,我们也在不断拓展企业市场。在我看来可以分为三条路线。

  首先是现成的AI,比如ChatGPT以及未来将不断涌现的类似技术。

  其次是专有人工智能,如ServiceNow、SAP等软件公司,他们不会将自己公司的情报外包给外部公司。因此,他们需要打造专属自身的工具,并在此基础上构建专有的、特定领域的辅助软件,以便用户群体使用。在我看来,这部分公司未来大有可为。他们已经认识到必须要打造专属自己的定制人工智能基础设施。英伟达旗下有一款名为AI Foundry的新服务,我们可以利用此功能为上述公司提供帮助。

  另外,不同企业也在打造定制人工智能、聊天机器人、RAG。目前,全球范围内正掀起这波浪潮。我们将为市场提供全系统堆栈,包括计算、网络与交换机,以及NVIDIA AI Enterprise综合软件套件,为我们的大型合作伙伴,如惠普、戴尔、联想等提供服务。此外,生成式人工智能的浪潮始于初创公司与CSP,现如今正逐渐转向消费互联网公司、企业软件平台等。

  最后,大家还可以看到英伟达发力的领域之一便是工业领域的生成式人工智能。这也是Nvidia AI与Nvidia Omniverse能够积极结合的地方。总而言之,这对我们来说是一项非常令人兴奋的工作。我认为我们也正处在人工智能向工业全面转型的开端,这将为每个国家、每个行业、每个企业带来影响。

  高盛分析师Toshiya Hari:我的第一个问题想问科莉特。刚刚您提到会在接下来几个月推出符合法规的新产品,但新产品对第四季度的收入贡献相对有限。情况会随着时间的推移逐渐改善吗?即将推出的新产品是否会成为明年四月及未来数据中心加速增长的驱动力源泉?还是说收入贡献有限的原因与产品的定价策略有关?

  我的第二个问题想问黄仁勋。我看到上周公司发布一项名为AI Foundry的新服务公告。管理层能否对此展开谈一谈?比如AI Foundry的盈利模型如何?它主要依靠软件与服务带动收入吗?从长期来看,AI Foundry有哪些机遇?AI Foundry是否是微软Azure独占?未来管理层是否计划将AI Foundry拓展至英伟达其他合作伙伴?

  科莉特·克雷斯:关于你的第一个问题。新产品的设计与研发过程同等重要。正如我们之前与大家分享的那样,我们需要与美国政府充分沟通新产品的研发理念、研发用途。本季度(第四季度)已经过去几周了,我们还需要时间与我们的客户探讨他们对新产品的需求与期待。因此,展望未来,无论是从中期还是长期来看,对于我们与美国政府的探讨以及中国客户的需求期待,我们都很难给出预测,但我们会尝试在这两者间找到恰当的平衡点。但具体情况真的很难给出预测。

  黄仁勋:AI Foundry有着巨大的机遇,也能为企业带来更深广的意义。

  首先,每个公司都有自己的核心智力与核心技术,正是这些核心构成了我们的公司、数据以及领域专业知识。对许多公司来说,英伟达的职责是为他们打造工具。全球大多数软件公司都是工具平台,而这些工具也为用户所用。大家可以看到,我们已经官宣了与SAP、ServiceNow、Dropbox、Getty等公司的合作,未来也会有更多的合作项目推出。

  英伟达于上述公司合作的原因在于,这些公司都希望打造自身专有的人工智能。倘若将数据、情报、飞轮外包给其他公司,让其他公司帮助他们打造人工智能平台,这其中可能带来的潜在代价他们无法承受。正因如此,大家找上了我们。想要达成合作有几点至关重要,而英伟达AI Foundry恰恰拥有这些关键技术。

  首先,必须拥有人工智能技术。众所周知,英伟达具备深度人工智能技术能力。其次,必须拥有实践经验,拥有研发人工智能模型并用其处理数据的能力,确保所研发的人工智能模型可以微调且能够保证安全。

  最后,必须拥有工厂,也就是英伟达DGX云。英伟达的人工智能模型名为NVIDIA AI Foundations;我们创建人工智能的系统名为NeMo;而这些模型可以在名为DGX云的Nvidia工厂上流畅运行。

  至于你在问题中提到的盈利模式。英伟达与每个合作伙伴都会在DGX云上租用沙盒(sandbox),并在其中一道协作。用户会带来他们的数据、领域专业知识,而我们则带来研究人员与工程师,帮助用户定制、构建他们所需的人工智能。

  在工作完成后,定制的人工智能便可以为他们所用。整个定制过程非常不可思议。用户可以将定制后的人工智能部署在企业级企业优化或性能优化的运行时(runtime)上,该运行时可在所有Nvidia产品中运行。我们拥有一款名为Nvidia AI Enterprise的企业级软件,它能为企业提供安全的修补、优化支持,定价在每年4500美元/插槽。

  这就是我们的商业模式,基本上就好比一个“许可证”。用户通过“许可证”,可以在此基础上构建货币化模型, 他们可以选择不同方式来打造专属自己的商业模式。我们对他们的帮助更像是一种“操作系统”。换言之,我们的商业模式是帮助用户创建自定义人工智能模型,用户可以在Nvidia AI Enterprise上运行上述自定义模型。

  一切都在有条不紊地进行,我们有了个好开头。我相信Nvidia AI Enterprise未来将成为我们的大体量业务之一。

  Cowen分析师Matt Ramsay:我这边有两个问题,但问题的大前提是同一个。问题的大前提是,近期我收到许多来自投资者的问题,他们认为人工智能训练一直是英伟达的主要阵地。但随着大模型推理所需时间越来越多、市场竞争愈加强烈,英伟达与竞争对手之间的差异也会越来越小。因此,我的第一个问题是,能否请管理层谈一谈随着英伟达入局大语言模型(LLM),推理工作负载将如何演变?管理层对英伟达在LLM领域的定位如何?

  我的第二个问题是。大概一两个月之前,我都没收到过任何有关AI工作负载数据处理的相关问题。如今,AI工作负载中很大一部分来自训练前、训练与推理过程中、推理后的数据操作。能否请管理层谈一谈Nvidia CUDA(并行计算架构)系统将如何加速这部分工作负载?

  黄仁勋:推理是一个非常复杂的过程。

  本季度我们发布了一款非常令人振奋的优化编辑器,名为TensorRT-LLM。目前来看市场反馈良好。我看到在GitHub代码库中TensorRT-LLM下载量极高,评分也很不错。TensorRT-LLM一经发布几乎立刻被集成至全球的软件堆栈与框架之中。这背后原因有几点。

  首先,我们之所以能够打造TensorRT-LLM是因为Nvidia CUDA是可编程的。如果CUDA和GPU都无法编程,我们也很难按照现在的速度改进软件堆栈。此外,同一GPU上的TensorRT-LLM可以在无接触的情况下将性能提升两倍。在此基础上,我们的创新能力也得到了提升,H200芯片推理能力也提高了两倍。从这个角度来说,在大约一年的时间里我们的推理成本减少了约四倍。

  行业非常欢迎英伟达推理引擎的原因之一在于我们的大批量装机数。在过去的20多年来,英伟达一直致力于扩大装机数。几乎每个系统制造商、各行各业都采用了我们的系统。此外,长期以来我们也致力于打造兼容系统。对此我们一直坚定不移。

  换言之,我们向世界展示了英伟达平台的稳定性与确定性,也正是这种稳定性与确定性促使每位用户选择在我们的平台上构建、优化。用户在英伟达平台上的所有工作、负载、技术发明都将造福使用英伟达GPU的每位用户。我们的装机数基础庞大,在云端拥有数百万计的插槽,全球几乎各地都在运行我们的平台。换言之,如果用户本身就是推理平台,并计划部署推理应用程序,那他本身就是应用程序提供商。而作为软件应用程序供应商就必须有大规模装机量作为前提。

  数据处理方面。在模型训练之前,用户必须携带相关数据。我们需要对数据进行一系列操作,包括处理、扩充、清理、对齐、规范化等等。这些数据规模庞大,不是以“字节”、“兆字节”为单位,而是以“千兆”、“拍字节”为单位的。因此,在进行模型训练之前所需要处理的数据量异常庞大,工作量可能要占到总工作量的30%、40%甚至50%。

  因此,数据处理是我们工作非常重要的一部分。近期我们发布了一款名为 RAPIDS cuDF的新框架,可以极大加速pandas的运行速度与性能。用户对此都感到非常兴奋。pandas的设计初衷即是用于数据科学的数据处理,与CUDA结合后,我们能够有效提升pandas的性能,极大地加快其运行速度。

  摩根大通分析师Harlan Sur:回顾科技行业历史,那些成功的公司往往专注于打造生态系统、芯片、硬件、软件、合作伙伴关系等等。更重要的是,他们会随着时间的推移,不断推出新产品,专注更多细分市场。我看到英伟达近期公布了更积极、紧凑的新产品上市节奏与数据中心,可能在两年的时间内每年都会有新的细分领域、模型训练、CPU、GPU、网络优化等等。我的问题是,管理层如何看待公司的研发、运营支出增长?它们能否支撑公司上述更积极、更广泛的产品路线规划?更重要的是,考虑到上述决策的复杂性,管理层与团队将会采取哪些措施与方法来推动决策的管理与执行?

  黄仁勋:你的问题基本就是英伟达的商业计划,简直是概述了我们的商业战略。

  首先,我们选择加速执行的根本原因在于这能够降低成本。举例来说,TensorRT-LLM和H200芯片的结合能够为我们的用户有效降低大模型推理成本。这主要得益于我们的架构与软件优势。正因如此,我们希望加速公司的产品路线规划。

  第二个原因在于我们希望扩大生成式人工智能的覆盖范围,拓展全球数据中心配置的数量。英伟达几乎参与到全球每一个云平台之中,但这些云平台各不相同。

  目前,英伟达与每一家云服务提供商都保持合作,但没有一家云服务提供商的网络、控制台、安全状况是完全相同的。各个平台都有自己的特点、各不相同。但神奇之处便在于英伟达能够集成至所有的堆栈与数据中心之中。

  换言之,我们与每一位合作伙伴都合作良好。此外,我们还打造了独立的AI工厂。我们希望能将AI引入企业,这是行业内从未有人涉足的领域。未来,我们也计划将上述产品逐步推向市场。

  所以你在问题中提到了“复杂性”,这种“复杂性”包括各个领域中不同的技术,这种“复杂性”也要求我们需要在不同架构之间实现兼容。正因如此,不同的计算机公司、软件公司都选择将英伟达纳入他们的产品路线图。这背后的原因在于市场需求。无论是医疗保健、制造业、人工智能领域、金融服务、超级计算甚至量子计算领域都存在着行业需求,而我们能覆盖的特定操作库与细分市场都非常广泛。

  最后,我们还能为数据中心提供端到端的解决方案。无论是InfiniBand、以太网、x86还是ARM,我们都能提供相关的技术解决方案与软件堆栈。这就意味着英伟达拥有庞大的生态系统、软件开发商、系统制造商、分销合作伙伴网络以及极大的业务覆盖范围。这背后势必需要巨大的能量与能力。

  但这一切能够实现的真正原因在于我们在几十年前所做出的一个伟大决定:让所有架构兼容。换言之,研发在GPU上运行的特定领域语言时我们要确保它能在每个GPU上都能运行。因此,在我们优化tensorRT时,我们同时对企业进行了优化;在引入新功能、新操作库时,用户也能立即从中受益。

  综上,这种“兼容架构”的原则在英伟达已经持续了数十年。也正因如此,多年来英伟达保持了非常高的执行效率。目前,我们拥有28000名员工,时刻为全球几乎每家公司、每个市场提供服务。(完)

现在送您60元福利红包,直接提现不套路~~~快来参与活动吧! 海量资讯、精准解读,尽在新浪财经APP

责任编辑:刘明亮

英伟达 相关专题: 聚焦美股2023年第三季度财报 专题 VIP课程推荐 加载中... 新浪直播 百位牛人在线解读股市热点,带你挖掘板块龙头 收起 @@title@@ @@status_text@@@@program_title@@ APP专享直播 上一页下一页 1/10 热门推荐 收起 新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

相关新闻


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有