2022年英伟达主营业务及发展趋势分析 英伟达的GPU在PC端是以独立显卡的形式存在 您所在的位置:网站首页 英伟达认证系统 2022年英伟达主营业务及发展趋势分析 英伟达的GPU在PC端是以独立显卡的形式存在

2022年英伟达主营业务及发展趋势分析 英伟达的GPU在PC端是以独立显卡的形式存在

2023-12-25 05:24| 来源: 网络整理| 查看: 265

1. 英伟达历史及业务简介

1.1. GPU 简介

多核心的并行结构 GPU 比少核心串行结构的 CPU 更适合处理图形图像(矩阵结 构)信息。CPU(Central Processing Unit,中央处理器)的功能主要是解释计算机指令以 及处理计算机软件中的数据,是计算机的核心大脑,可以处理计算机遇到的所有指令。 GPU(Graphics Processing Unit,图形处理器)是图形计算的重要元件, 主要用来处理 与与图形图像相关的数据,在高端 PC 中通常会有独立 GPU,以获得更好的视觉体验。 他们二者的区别主要是,CPU 通常有 4 个、8 个或 16 个强力 ALU 核心(arithmetic logic unit,算术逻辑单元),适合做复杂的通用串行任务;而 GPU 可能有数千个简单 ALU 核 心,适合做简单特定的并行任务。

我们通过以下的例子来说明 CPU 和 GPU 的差异:CPU 就像一个大学生,可以进行微积分等复杂计算,但若要在短时间内完成几万道加减算数 问题,也是很难办得到的;而 GPU 就像几百个小学生,虽然都不会微积分等复杂计算 的能力,但人数多,可以在很短时间内完成几万道加减算数问题。也有例子把 CPU 比 作跑车,GPU 比作大卡车,对于将少量货物从 A 运到 B 来说,是作为跑车的 CPU 更 快;但如果货物非常多,那么作为跑车的 CPU 需要往返的次数远远多于作为货车的 GPU, 作为货车的 GPU 虽然完成一次任务较慢,但是可以携带更多的货物,其效率会高于 CPU。 总而言之,对于复杂的单个计算任务来说, CPU 的执行效率更高,通用性更强;而对 于图形图像这种矩阵式多像素点的简单计算,更适合用 GPU 来处理,但通用性较弱。

GPU 按接入方式分为独立 GPU 和集成 GPU;按照应用端划分为移动 GPU、服务 器 GPU 和 PC GPU。GPU 是图形处理单元,在 PC(个人电脑)早期,图形数据较为简 单,主要都是由 CPU 来进行图形处理。随着图形显示规模的增加,CPU 已经很难分出 更多精力来处理图形信息,而且 CPU 的架构决定了其处理图形信息的效率是偏低的, 因此逐渐发展出了专门处理图形信息的 GPU。英伟达专做 GPU,开发了独立于 CPU 的 GPU;英特尔作为 CPU 的霸主,开发了寄生于 CPU 芯片上的 GPU 单元,被称为集成 GPU。通常来讲,独立 GPU 的性能都要优于集成 GPU,在对图形实时处理要求不高的日常办公领域,使用普通的集成 GPU 即可;在对图形实时处理能力要求很高的游戏及 设计领域,一般都需要使用独立 GPU。随着移动设备的发展,GPU 也从 PC 端扩展到了 移动端,高通骁龙以及苹果的 A 系列芯片都开发了相应的 GPU 芯片模块。

随着 AI 以及云计算的兴起,具有并行计算架构的 GPU 具有更高的效率,这也使 得 GPU 被应用到 AI 及云计算等数据处理之中。这是一个全新的领域,拥有巨大的成长 空间。值得一提的是,市场上还存在着比 GPU 专用程度更高的芯片,包括 FPGA(Fieldprogrammable gate array,可编程逻辑阵列)和针对某一类 AI 计算的 ASIC(Applicationspecific integrated circuit,特定场景芯片),包括谷歌推出的 TPU(张量计算单元)和特 斯拉推出的 NPU(神经网络计算单元),虽然在某些特定计算上效率更高,但目前这些 芯片的使用场景比较单一,市场规模还较小。

1.2. 英伟达发展历史

英伟达(NVIDIA)是一家以 GPU(Graphics Process Unit,图形处理单元)芯片 设计起家的人工智能计算公司。公司创立于 1993 年,总部位于美国加利福尼亚州圣克 拉拉市。美籍华人 Jensen Huang(黄仁勋)是创始人兼 CEO。1999 年,NVIDIA 定义了 GPU,GPU 的出现被业界视为现代计算机图形技术的开端。英伟达于 1999 年 1 月在纳 斯达克挂牌上市,在 2000 年它收购了曾经在 90 年代称霸图形显示市场的 3dfx 公司的 知识产权,逐渐占据图形显示市场的优势地位。到 2021 年为止,在消费 PC 领域,能够 量产 GPU 的公司只有英伟达、AMD 和英特尔,其中英特尔主要是以集成 GPU 为主,AMD 既有集成 GPU 也有独立 GPU,英伟达主要是独立 GPU。在独立 GPU 领域,英伟 达 2021Q1 占据 81%的市场份额,处于绝对的领先地位。

公司 20 多年来始终引领 GPU 行业的发展,将 GPU 的主要应用场景从游戏以及画图等 图像显示扩展到了以 AI、云计算等大数据相关的并行计算领域。英伟达保持着两年升级一 次 GPU 架构的步伐,不断提高 GPU 的性能。在英伟达 GTC 2020 主题演讲中,NVIDIA 宣 布推出安培(Ampere)架构,这是 NVIDIA 发布的第八代 GPU 架构,包含超过 540 亿个晶体 管,性能相较于前代提升了高达 20 倍,也是 NVIDIA 8 代 GPU 历史上最大的一次性能飞跃。 安培架构的最新一代 RTX30 系列游戏 GPU 和 AI 计算 GPU A100 作为各自领域的代表产品, 继续推动着相关领域的发展。

1.1. 英伟达业务简介

按照 FY2022(对应公历 2021.1~2022.1)的年报分法,英伟达有消费者(游戏)业务 Gaming、数据中心业务 Data Center、汽车业务 Auto、专业解决方案业务 Professional Visualization 以及 OEM 和其他业务 OEM&Others,英伟达主要为这些领域提供 GPU 芯片 及相应的软件工具链。从消费者行为来看,在 PC 端购买独立 GPU 的主要目的是为了体验 高性能游戏,因此英伟达将 PC 端 GPU 的销售业务称之为游戏业务。游戏业务一直是英伟 达的主营业务,在各板块中营收排名领先;随着 AI 和云计算的不断兴起,英伟达逐渐将 GPU 打造为 AI 和云计算提供算力的底层芯片,这部分与 AI 和云计算相关的业务被称为数据中 心业务。英伟达数据中心业务营收从 2020 年以来迎来迅速增长,我们预计在 2025 年左右将 成为营收规模最大的板块;汽车智能化对算力需求的提高,英伟达也将 GPU 芯片装入车辆 中为其提供高算力。随着汽车智能化的不断提速,我们预计英伟达汽车业务营收也会快速增 长,成为公司的一个重要板块。

2. 传统业务:消费者(游戏)相关业务保持稳定增长

2.1. 英伟达 GPU 五年来持续占据 PC 独显六成以上市场

由于疫情导致的居家时间延长,公司 GPU 量价齐升,FY2022Q2 游戏相关营收同比大 增 85%,单季收入首次超过 30 亿美元。英伟达的 GPU 在 PC 端是以独立显卡的形式存在, 通过独立显卡可以实现高帧率高分辨率 3A 游戏、专业绘图等应用。独显领域是一个壁垒极 高的市场,经过 20 多年的充分竞争后,目前仅有英伟达、AMD 可以推出相关产品,而英伟 达占据绝对的领先优势。据研究机构 Jon Peddie Research 报道,2021Q1 英伟达在 PC 独显 市场占据 81%的市场份额(2020 全年为 77%)。

以每两年更新一次架构、每半年性能翻倍的速度,持续引领消费级 GPU 市场。2020年 9 月 2 日,英伟达发布了新一代显卡 RTX30 系列,与前一代 RTX20 系列相比,采用 了全新的安培架构,在核心数、显存、频率等性能都有了大幅度提升。RTX30 的高算力 加上英伟达的 DLSS(Deep Learning Super Sampling,深度学习超采样)技术,大大提高 实际场景的运算力(在算力不变的情况下提高帧率),使得英伟达显卡深受游戏玩家的 喜爱。在中国,RTX30 系列中的 RTX3080 由发售价的 5499 元被一路炒高至 18000 元左 右,足见其火爆程度(虽然部分原因是受到数字货币“挖矿”抢货的影响)。英伟达以半年 性能提升一倍的“黄氏定律”牢牢占据 GPU 的领导者地位。截止到 2021 年 3 月,英伟达 的各系列 GPU 在性能排行的前 20 名中占据了包括第一名在内的 14 个席位,可以看出 英伟达在 GPU 领域的霸主地位。

2.2. 借助 Bluefield 能力,发力云游戏 Geforce Now 业务

云游戏是以云计算为基础的游戏方式,在云游戏的运行模式下,所有游戏都在服务 器端运行,并将渲染完毕后的游戏画面压缩后通过网络传送给用户。在客户端,用户的 游戏设备不需要任何高端处理器和显卡,只需要基本的视频解压能力就可以,因此其市 场潜力很大,据 Newzoo 2021 年 3 月发布的报告预测,2023 年全球云游戏市场收入可 能达到 51 亿美元。但目前主要受限于网络延迟以及服务器延迟等方面,市场尚处于初 期阶段。除英伟达外,目前还有微软、谷歌、索尼、腾讯以及网易等也在拓展云游戏业 务。

英伟达云游戏平台 Geforce Now 采用 Bluefield 架构,解决云游戏服务器的延迟问 题。对于云游戏来说,延迟是最亟待解决的问题。而控制延迟的关键,不仅需要良好的 通信网络能力,更为重要的是对云端服务器的数据处理特别是图形相关的处理速度。英 伟达利用其在数据中心的经验,优化了服务器架构,推出了英伟达云游戏平台 Geforce Now,采用 RTX 服务器来实现更低延迟(整体延迟小于 100ms),使云游戏体验得到了 优化。由于目前云游戏仍受限于网络延迟,整个市场尚不成熟,但随着基础设施的不断 发展,此项业务将为英伟达带来未来全新增长空间。

3. 成长业务:数据中心成为云和 AI 领域基础设施,营收迅速扩大

英伟达成为云计算和 AI 这个未来“金矿”行业的芯片及服务器等“铲子”工具—— GPU 的主要供应商,2020 年以来以 AI 和云计算为主要服务对象的数据中心业务营收规 模已经和游戏业务相当。英伟达创始人、CEO 黄仁勋于 2021 年 6 月份在接受第一财经 的采访中表示,“数据中心规模计算的时代已经来临。我们想成为一家数据中心企业,数 据中心正在占据我们业务越来越重要的地位。”他说道,“而各种新兴技术的汇聚,比如 云计算、人工智能、加速计算、工业 5G 等,将会成为解决计算时代重要问题的最后几 块拼图。”英伟达在数据中心上布局很早,利用在 GPU 中积累的芯片设计经验,推广到 了数据中心业务。

从英伟达近一年的财报中也可以看出,英伟达在数据中心的业务收入 已经和游戏业务比肩,且有超越游戏业务的潜力。从 2021 年 6 月举办的国际超级计算 大会 ISC 上公布的超级计算榜单可以看出,TOP10 中有 8 台使用英伟达的技术,TOP500 中有 342 台使用英伟达的技术,可见英伟达在数据中心业务的优势。英伟达在数据中心 领域的成功离不开硬件(A100、DGX A100、InfiniBand)以及相关软件(CUDA)等的 支持,英伟达在云与数据中心领域形成了一整套完整的生态系统,成为云和 AI 领域基 础算力及算法工具链等基础工具的供应商,在 AI 的布局中拥有不可替代的位置。

3.1. 采用并行计算的 GPU 天生适合 AI 领域的运算

AI 算法多为并行结构。AI 领域中用于图像识别的深度学习、用于决策和推理的机 器学习以及超级计算都需要大规模的并行计算,更适合采用 GPU 架构。我们以深度学 习中的神经网络算法来举例说明 GPU 架构的优势。

神经网络是一种模拟人脑的以期能够实现人工智能的机器学习技术,适合采用并行 计算的 GPU 架构。一个经典的神经网络分为输入层、隐藏层和输出层,通常隐藏层的 数量越多,神经网络模拟的结果越精确,但相应的计算量会呈指数的增长。最初人们使 用 CPU 来模拟多层神经网络需要很长时间;随后科学家认为,输入层到输出层的计算 关系是矩阵形式,与 GPU 对图像像素处理的架构类似,都是并行计算为主,因此产生 了使用 GPU 来进行神经网络计算的想法。2010 年时,Google 负责人工智能的吴恩达为 了训练神经网络来识别猫,最初使用了 16000 台计算机的 CPU 完成了训练,但为了搭 建庞大的 CPU 耗费巨大;随后他与英伟达公司探讨了这件事情,英伟达仅采用 12 个 GPU 就完成了训练,使人们看到了 GPU 对神经网络的优势。随着神经网络的复杂程度 逐渐提高,用 GPU 来训练神经网络成为了更优的选择。

如上图所示,我们在底部有一个蓝色的输入通道。在输入通道上滑动的底部有一个 阴影的卷积滤波器,还有一个绿色的输出通道。卷积算法流程如下:蓝色(底部)→ 输 入通道 →阴影(覆盖在蓝色上)→ 3x3 的卷积过滤器 →绿色(顶部)→输出通道。对 于蓝色输入通道上的每个位置,3x3 过滤器进行计算,将蓝色输入通道的阴影部分映射 到绿色输出通道的相应阴影部分。每个计算都是独立于其他计算的,这意味着任何计算 都不依赖于任何其他计算的结果,所有这些独立的计算都可以在 GPU 上并行进行,虽 然单个卷积计算要比 CPU 慢,但是对于整个任务来说,CPU 要逐个依次完成,速度要 大大慢于 GPU。因此,卷积运算可以通过使用并行编程方法和 GPU 来加速。

CPU+GPU+DPU 形成产品矩阵,全面发力数据中心市场。自从 2021 年 GTC 大会 上英伟达宣布推出第一款 CPU Grace 以来,英伟达已经涉足了与 AI 和云计算相关的数 据中心市场的大部分领域。利用 GPU 在 AI 领域的先天优势,英伟达借此切入数据中心 市场。针对芯片内部带宽以及系统级互联等诸多问题,英伟达推出了 Bluefield DPU 和 Grace CPU,提升了整体硬件性能。在 2021 年 GTC 大会上,英伟达公布了 GPU、CPU 和 DPU 的发展规划,每年都会有新产品问世;英伟达在数据中心硬件市场的不断升级, 推动了数据中心以及 AI 整个产业的发展步伐。

3.2.1. 基于安培架构的 A100 系列,为数据中心打造高性能算力基础

作为安培架构的代表,A100 GPU 在在深度学习、数据分析、能效方面都获得了前 所未有的优化,被广泛应用于自然语言识别、大数据分析、科学计算领域。在 GTC2020 大会上,英伟达推出了安培架构的首款超算 GPU——A100。A100 引入了有着里程碑式 意义的 Tensor Cores 双精度计算技术,这使得 A100 的算力比前一代 V100 提高了 175%。 NVIDIA A100 Tensor Core GPU 针对 AI、数据分析和 HPC(high performance computing, 高性能计算)等应用上,实现了更强的加速,针对极其严峻的计算挑战上有了更大作为。 作为 A100 GPU 系列中的最新力作,在架构特性上有如下特点:

采用第三代 Tensor Core 核心。通过全新 TF32,将上一代 Volta 架构的 AI 吞吐 量提高多达 20 倍。通过 FP64,将 HPC 性能提升了 2.5 倍。通过 INT8,将 AI 推理性能提高多达 20 倍,并且支持 BF16 数据格式。

采用更大、更快的 HBM2e GPU 内存。从而使内存容量增加一倍,在业内率先实现 2TB/s 以上的内存带宽。

采用 MIG(Multi-Instance GPU,多实例 GPU)技术,将单个独立实例的内存 增加一倍,可最多提供七个 MIG,每个实例具备 10GB 内存。

采用结构化稀疏技术,将推理稀疏模型的速度提高两倍。

第三代 NVLink 和 NVSwitch,相较于上一代互连技术,可使 GPU 之间的带宽 增加至原来的两倍,将数据密集型工作负载的 GPU 数据传输速度提高至 600 GB/s。

A100 被广泛应用于大数据分析、天气预报、量子化学以及材料模拟等领域,推动 了相关领域的发展。基于以上算力、内存以及数据交互上的优化,A100 在自然语言识 别、大数据分析、科学计算领域提供了更强的硬件实力。对于如 RNN-T 等自动语言识 别模型的 AI 推理,单个 A100 MIG 实例可处理更大规模的批量数据,将生产中的推理 吞吐量提高 1.25 倍。在 TB 级零售大数据分析基准上,A100 将其性能提高了 2 倍,使 其成为可对最大规模数据集进行快速分析的理想平台。随着数据的动态更新,企业可以 实时做出关键决策。对于科学应用,A100 可为天气预报和量子化学等领域提供巨大的 加速。材料模拟软件 Quantum Espresso 采用单节点 A100 实现了近 2 倍的吞吐量提升。

除了高性能的 A100 系列外,英伟达还在在功耗、性能上做了优化与调整,推出了 A10、A30 等产品,旨在面向中小型客户。英伟达的一系列产品满足了不同用户的需求。

3.2.2. DGX A100 数据中心及 DGX SuperPOD 解决方案,使英伟达保持超 算领域优势

一体式 AI 数据中心 DGX Station A100,使 AI 超算中心的搭建更为方便。以 A100 GPU 为核心的数据中心 DGX Station A100,AI 性能可以达到 2.5 Petaflops,通过 NVIDIA NVLink 完全互连,实现多个 NVIDIA A100 GPU 融合在一起的工作组服务器,目前有 320GB/640GB 等不同版本可供选择。借助 MIG,单一 DGX Station A100 最多可提供 28个独立 GPU 实例以运行并行任务,并可在不影响系统性能的前提下支持多用户应用。 作为服务器级的系统,DGX Station A100 无需配备数据中心级电源或散热系统,用户可 以极为方便地部署 AI 超算中心;与前代相比,如果要搭建同样算力的数据中心,成本 会降低 90%,耗电量会减少 95%(如图 18 所示数据),大大降低了数据中心的使用门 槛,客观上推动了 AI 领域的蓬勃发展。

NVIDIA DGX SuperPOD 解决方案,促进了 AI 超算行业的发展。全新 DGX A100 640GB 系统也将集成到企业版 NVIDIA DGX SuperPOD 解决方案,使机构能基于以 20 个 DGX A100 系统为单位的一站式 AI 超级计算机,实现大规模 AI 模型的构建、训练和 部署。配备 A100 80GB GPU 的 NVIDIA DGX SuperPOD 系统将率先安装于英国的 Cambridge-1 超级计算机,以加速推进医疗健康领域研究;佛罗里达大学的全新 HiPerGator AI 超级计算机,将开展 AI 赋能的科学发现。新一代 DGX Station A100 和 DGX A100 640GB 移动数据中心的出现,将给 AI 超级计算机的行业格局带来一次新的 震动。同时 AI 超算上的创新也将因为 DGX Station A100 而再次迎来新的发展,对 AI 超 算的行业应用普及带来了更大的发展潜力与空间。

3.2.3. 战略眼光独到,收购 Mellanox,提高数据交互性能

英伟达并购 Mellanox 后,充分挖掘了其掌握的 InfiniBand 技术,使网络交换速度 得到保证。2019 年,英伟达以 69 亿美元并购了 Mellanox,后者以 InfiniBand 技术见长。 InfiniBand 和以太网是超算领域较常用的互联和协议,以太网设计的初衷是解决各种各 样设备之间的连接问题,其核心是通用性强;而 InfiniBand 的设计初衷是解决同一个系 统中不同设备之间的连接问题,其核心是为了让通讯更快。

举例来说,以太网像是快递 中转站,它需要尽可能识别所有的包裹并将其送到各种各样的目的地,其主要精力需要 放在数据处理上,信息的传递效率相对较低;而 InfiniBand 更像是地铁系统,轨道都是 确定好的且目标车站数量有限,因此不同站点间信息获取速度就会很快。对于高性能超 级计算机来说,为了提高数据交换速度,一般会采用 InfiniBand 技术。英伟达在得到 InfiniBand 技术后,开发出了 NVIDIA Mellanox InfiniBand 交换器系统,每个端口的速 度可达 400Gb/s(以太网的速度通常在 0.1~25 Gb/s),这让运算丛集和聚合数据中心能在任何规模中运作,并同时降低营运成本和基础架构的复杂性。

Bluefield 芯片可分担 CPU 的网络、存储和安全等任务,可以大大减少 CPU 的工 作量的同时提高数据交互性能。Mellanox 的主要产品就是名为 Bluefield 的芯片,英伟 达也将其称为 DPU(Data Processing Unit,数据处理单元),其实际上是一个高级的网卡。 基于 DPU 的智能网卡将成为云数据中心设备中的核心网络部件,逐渐承担原先需要 CPU 来执行的网络数据处理、分发的重任,从而从根本上实现软件定义网络(SDN)和 网络功能虚拟化(NFV)的诸多优势,有效降低云计算的性能损失,释放 CPU 算力,降 低功耗的同时大大减少云数据中心的运营成本。按照英伟达的说法,一个 DPU 顶 125 个 CPU 的网络处理能力。英伟达计划在 2022~2023 年推出第 3 代与第 4 代 Bluefield, 在保持 400Gb/s 的数据传输速度下,其 AI 算力会从 75TOPS 提高到 400TOPS,进一步 满足高性能数据交互的要求。

推出自研 CPU Grace,实现英伟达在数据中心、HPC 以及计算设备上的的全自研。 在 2021GTC 大会上,英伟达推出了 Grace CPU 并计划在 2023 年量产。这款 CPU 是英 伟达第一次推出的 CPU 产品,采用了 ARM v9 指令集,该指令集主要是增强面向矢量、 机器学习和数字信号处理器的相关内容,与数据中心所需要处理的事物息息相关,因此 这款 CPU 的主要应用场景将是在数据中心领域。据英伟达宣称,Grace CPU 是高度专业 化的、面向巨型人工智能和 HPC 的产品,可以训练拥有超过一万亿个参数的 NLP 模型。

自研 CPU 的主要目的是为了解决 GPU 读取内存数据的带宽瓶颈问题。英特尔的 x86 CPU 的优势是灵活的扩展性和对各类设备的支持,因此 x86 依然是目前 HPC 和服 务器应用场合的重点,但 x86 架构存在带宽不足的缺点。目前 x86 CPU 通过内存控制器 连接 DDR4 内存,最新的英特尔至强处理器可以实现 8 通道 DDR4 内存连接,其带宽大 约为 200GB/s,GPU 本地内存(显存)的带宽在使用 HBM2 的情况下大约可以达到 2000GB/s;CPU 和 GPU 自身的连接带宽都是足够的,但是 CPU 和 GPU 连接的带宽只 能依靠 PCIe 4.0 x16,带宽大约只有 16GB/s,如果考虑典型的一个 x86 CPU 带 4 个 GPU 的情形,则将一个待处理文件从内存(Memory)经过 CPU 到 GPU 的最大带宽就只有 64GB/s,这就是带宽瓶颈的由来。英伟达拥有 NVlink 技术,其带宽可达 500GB/s,但 x86 并不支持其协议,因此英伟达决定自研 CPU,来解决带宽瓶颈问题。英特尔回应称 其 PCIe 总线技术也会逐步升级,但据推测在 2023 年也就是 Grace 推出的当年,PCIe 的 带宽也只能达到 32GB/s(或者更进一步升级到 64GB/s),这也比 NVLink 的带宽要小一 个数量级。因此,英伟达可能会重塑数据中心的底层硬件市场,进一步获取数据中心领 域的优势地位。

3.3. CUDA 软件生态助力 GPU 硬件,打造软硬件生态系统,形成行业壁垒

CUDA 系统助力英伟达 GPU 方便且高效地发挥其并行计算能力,使 GPU 的使用 范围不仅限于显卡,而成为了 GPGPU(General-Purpose Graphics Processing Unit,图 形处理器通用计算)。GPU 的微架构天生适合矩阵类并行计算,其能力不仅限于显卡领 域,于是从 21 世纪早期就有专业的计算人员想要使用 GPU 做一些 AI 领域相关的并行 计算。但在 CUDA 问世之前,想要调用 GPU 的计算能力必须编写大量的底层语言代码, 这是主要使用高级语言为主的程序员不折不扣的噩梦。英伟达公司的 David Kirk 慧眼识 珠,在他的主导下,英伟达推出了 CUDA 系统。CUDA(Compute Unified Device Architecture,统一计算架构)是一个基于英伟达 GPU 平台上面定制的特殊计算体系/算 法,一般只能在英伟达的 GPU 系统上使用。CUDA 是一种类 C 语言,本身也兼容 C 语 言,所以其虽然是一种独立语言,但 CUDA 本身和 C 差距不算很大,适合普通开发者 使用且能够最大化 GPU 的计算效率,这使得 GPU 的使用范围不仅仅局限在显卡,而是 扩展到所有适合并行计算的领域,GPU 也逐渐成为了 GPGPU。我们通过一个例子来说 明 CPU、GPU 以及拥有 CUDA 的 GPU 的运算能力:比如,我们要算 100 次从 1 加到 100 的加法,如果利用一个 4 线程 CPU,需要 100/4*100=2500 次,而用 GPU(假定它 是 1000 个线程),性能相同的情况下,AMD 公司的 GPU 要算 100/1000*100=10 次。如 果使用 CUDA 优化的英伟达的 GPU 来计算的话,它能提供优化算法的“1+100,2+99 的 这种利用首尾相加再除以 2”的方法来简化计算,那么使用 CUDA 后的英伟达显卡可能 只需要计算 100/1000*100/5=2 次,可见效率提高了很多。所以,即便竞争对手的 GPU 在硬件参数上比肩英伟达的 GPU,但缺少 CUDA 的优化,其计算效率还是无法达到英 伟达 GPU 的水平。

CUDA 初期采用免费推广策略,不求短期回报,使英伟达迅速占领 AI 市场。英伟 达的 CEO 黄仁勋高瞻远瞩,对 GPU 的扩展应用十分重视,早在 2006 年就大力支持 CUDA 系统在 AI 领域的开发与推广,在当时每年投入 5 亿美元的研发经费(年营业额 只有 30 亿美元)对 CUDA 进行不断更新与维护,并让当时美国大学及科研机构免费使 用 CUDA 系统,使 CUDA 系统迅速在 AI 以及通用计算领域开花结果。

CUDA 经过多年优化,形成独特软硬件配合的生态系统,业界独此一家,产品壁垒 极高。为了让广大程序员以及科研人员方便使用 GPU 的算力,英伟达不断优化 CUDA 的开发库及驱动系统。操作系统的多任务机制可以同时管理 CUDA 访问 GPU 和图形程 序的运行库,其计算特性支持利用 CUDA 直观地编写 GPU 核心程序。CUDA 在软件方 面组成有:一个 CUDA 开发库、一个应用驱动及其运行环境(Runtime)、两个较高级别 的通用数学库,即 CUFFT 和 CUBLAS。CUDA 改进了 DRAM 的读写灵活性,使得 GPU 与 CPU 的机制相吻合。另一方面,CUDA 提供了片上(on-chip)共享内存,使得线程 之间可以共享数据。应用程序可以利用共享内存来减少 DRAM 的数据传送,更少的依 赖 DRAM 的内存带宽。除 CUDA 外,目前还有 OpenCL 也可以实现对 GPU 计算能力 的调用,但由于其通用性较强,整体优化效果不如 CUDA,在大规模计算中劣势很大。

CUDA 成为连接 AI 的中心节点,CUDA+GPU 系统极大推动了 AI 领域的发展。 搭载英伟达 GPU 硬件的工作站(Workstation)、服务器(Server)和云(Cloud)通过 CUDA 软件系统以及开发的 CUDA-X AI 库,为 AI 领域的机器学习(Machine Learning)、深度 学习(Deep Learing)中的训练(Train)和推理(Inference)提供软件工具链,来服务众 多的框架、云服务等等,推动了 AI 领域的迅速发展。因此,英伟达也被称作 AI 时代最 大的推动力量。英伟达 CEO 黄仁勋 2020 年在接受 Barron 周刊的采访时也不断强调, “我们是一家拥有高性能计算的 AI 公司,视频游戏只是我们一个极为成功的应用”; “ Nvidia 不是游戏公司,它将推动下一个人工智能大爆炸”。

3.4. AI 的普及助力数据中心业务蓬勃发展

3.4.1. GPU 在 AI 应用领域的硬件占比逐渐增

随着 AI 的不断普及,GPU 在云计算、工业、金融及医疗领域的硬件结构的占比会 越来越多。在云计算刚刚兴起的时候,人们沿用计算时期的惯性,首先选择 CPU 来进行底层的搭建。随着 AI 等并行计算越来越流行,人们发现在 AI 等特定领域中 CPU 的 效率远不如 GPU,因此随着 AI 的不断发展,以 GPU 架构为主的硬件系统占比会不断 增加。据 Yole 预测,AI 计算领域的硬件营收中,GPU 的占比会从 2019 年的 12%上升 到 2025 年的 16%;而作为 GPU 的主要供应商,英伟达将会从这个趋势中受益。目前, 英伟达的硬件系统已经广泛使用在金融防诈骗系统、石油开采预测系统、医疗影像识别 以及云计算领域中。

3.4.2. 全球云服务提供商采用英伟达的硬件系统为其用户赋能

全球顶级云服务商采用英伟达硬件系统为其用户赋能。鉴于英伟达 GPU 在并行计 算中的良好表现,亚马逊 AWS、微软 Azure、谷歌、甲骨文都纷纷采用英伟达的 GPU 进 行硬件架构的搭建。英伟达的数据中心收入也快速增加,目前其营收已经可以与游戏显 卡业务比肩,FY2021Q2 营收还一度超过游戏业务,成为英伟达所有业务板块中收入最 高的项目,可见数据中心业务的发展势头。

英伟达积极开拓中国市场,推动中国云服务业务发展。除美国客户外,英伟达还积 极拓展中国的客户。据英伟达官网报道,在 GTC China 2020 大会上,英伟达宣布阿里 云、百度智能云、滴滴云、腾讯云的大型数据中心正在迁移至基于英伟达安培架构的平 台,以充分利用 A100 在图像识别、语音识别以及包括计算流体动力学、计算金融学、 分子动力学在内的推理和训练方面提供的速度与可扩展性。A100 不仅可以满足全球云 服务提供商用户对性能的要求,而且还可以为全球用户提供强大的可靠性支持。中国云 服务提供商正在采用 A100 来满足各行各业的多样化需求:

阿里云已经发布了基于 NVIDIA A100 打造的 gn7 GPU 系列云服务器,该产品主要 面向 AI 训练和高性能计算应用,可提供新一代 GPU 计算实例。云服务器中的 8 块 NVIDIA A100 GPU 可通过 NVIDIA NVLinkTM 和 NVSwitchTM 技术实现先进的多 GPU 通信。这些 NVIDIA 技术可支持阿里巴巴 gn7 云服务器相比上一代平台实现 最高 20 倍的 AI 性能,以及 2.5 倍的高性能计算速度。

百度智能云即将推出基于 NVIDIA A100 打造的 lgn3 GPU 系列云服务器、vGPU 云 服务器以及百度太行裸金属服务器产品,该系列产品最高将搭载 8 块 NVIDIA A100 GPU,8T NVMe SSD 磁盘以及百 G 带宽,主要面向 AI 训练/推理、高性能计算应 用、科学计算等场景。基于 A100 TF32 新技术,百度新一代 GPU 云服务器提供 20 倍于 V100 FP32 云服务器的计算能力。

滴滴云 A100 裸金属服务器配置了 8 块 NVIDIA A100 GPU 、2 颗 AMD EPYC 7302 CPU 处理器、1024GB 内存、2 个 240GB SATA SSD,以及 2 个 2T NVME SSD 磁 盘,适用于 AI、数据分析、高性能计算等多种应用场景。

腾讯云已推出首款搭载 NVIDIA A100 的 GPU 云服务器 GT4,其搭配 AMD ROME CPU 平台,支持 PCIe 4.0 技术以及最高 180 核的 vGPU 配置。适用于深度学习训练、推理、高性能计算、数据分析、视频分析等领域,可提供更高性能的计算资源, 从而进一步降低使用成本,帮助企业、高校及研究人员聚焦模型的优化与创新。

中国OEM厂商致力于满足全球对搭载A100 的NVIDIA认证系统不断增长的需求, 包括新华三、浪潮、联想、宁畅等在内的中国领先系统制造商也在以前所未有的速度将 NVIDIA A100 GPU 引入到它们的产品中,并推出了多款针对不同应用场景的系列产品, 为超大型数据中心提供基于 NVIDIA 安培架构的加速系统,进而为用户提供兼具超强性 能与灵活性的 AI 计算平台。

4. 未来业务:布局自动驾驶平台化芯片,抢占智能汽车市场份额

4.1. 自动驾驶介绍

自动驾驶主要指自动驾驶汽车,也即无人车(driverless car),是一种无须人工干预 而能够完成出行需求的车辆。它利用了包括雷达、超声波、GPS、计算机视觉等多种技 术来感知其周边环境,通过先进的计算和控制系统,来识别障碍物和各种标识牌,规划 合适的路径来控制车辆行驶。

4.1.1. 自动驾驶历史

科技巨头、独角兽公司以及整车厂纷纷开展自动驾驶研究,自动驾驶迎来快速发展 的时期。自动驾驶的研究历史非常悠久,早在 1977 年时日本就有基于摄像头的自动驾 驶汽车问世。但限于软硬件能力及成本的束缚,自动驾驶的发展较为缓慢。直到 2004 年 美国国防部推出的 DARPA 项目,很大程度上推动了自动驾驶的复兴。现代意义上的自 动驾驶技术在 DARPA 挑战赛上已经成型,参赛车辆上已经配备了激光雷达、摄像头以 及分析决策系统。2005 年的 DARPA 挑战赛中,有五支队伍的参赛车辆已经可以完成限 定场景的无人驾驶。目前的自动驾驶技术都是在这个基础上进行的不断升级,主要在成 本优化和车规级适配性等实用性方面进行完善,不仅有各种科技巨头领导相关研究,科 技独角兽公司以及整车厂也都纷纷加入这个领域,自动驾驶全面商业化的时代就要到来。

4.1.2. 自动驾驶等级分类及技术路线

目前较为通用的一种自动驾驶等级分类如下表所示:

目前有两种自动驾驶研发思路。一种是可称之为自上而下的不考虑成本的研究 L4+ 级完全自动驾驶,代表企业有谷歌的 Waymo、通用的 Cruise、百度的 Apollo 等,目前 其实现自动驾驶的系统成本在数十万到百万元人民币以上;另一种主要是车企,他们要 考虑成本因素,所以一般是自下而上的,由低级别的自动驾驶开始逐渐提升水平,目前 商业化的汽车基本上可以达到 L2 级的水平,代表企业有特斯拉、奥迪、蔚来、小鹏等。 值得一提的是,本文所提到的分类级别是从法律意义上已经实现的级别而不是能力上的分类级别,也即如果是 L3 级以上的话,自动驾驶公司将为车辆的事故负责。因此本文 所谓的 L3 及以上级别主要是由 Robotaxi 组成的。

4.2. 自动驾驶细分领域的市场规模

汽车市场正在经历快速的变革期,电动化是汽车升级的上半场,智能化是汽车升级 的下半场。 智能化将会迎来快速发展期,主要源于以下几个方面:

半导体技术的提升与成本的下降:随着半导体制造商向汽车领域逐渐发展,规 模化生产有利于成本的降低,从而推动销量扩大形成正反馈,汽车半导体有望 复制手机半导体领域的发展规模和速度;

电动化的不断普及加速了智能化:电动车的电机电控特性,相较于燃油车更有 助于智能化的控制系统发展;

对安全性便捷性和高效出行的要求:为了提升车辆差异化的竞争力,汽车厂商 将继续增加在驾驶辅助系统 ADAS 方面的投入,提升自动避险刹车、自动泊 车、道路领航等能力,以提升车辆的安全性与便捷性;随着自动驾驶能力的不 断提高,自动驾驶将有效缓解交通拥堵,大大提高出行的效率。

我们预计,拥有智能化功能的车辆将从 2020 年的 2773 万辆增长到 2025 年的 6332 万辆。据 IDC 报告,2020 年售出的汽车中,拥有自动驾驶(辅助)功能的汽车数量(包 含 L1~5 级)为 2773.2 万辆,其中 L1 为 1874 万辆,L2 为 896 万辆,L3+为 3.2 万辆。 我们根据市场智能化趋势以及前几年的增速为基础进行测算,到 2025 年,拥有自动驾 驶(辅助)功能的汽车数量(包含 L1~5 级)为 6332 万辆,其中 L1 为 3900 万辆,L2 为 2320 万辆,L3+为 112 万辆;2020~2025 的 CAGR 为 17.8%。

到 2025 年时,与单车自动驾驶相关的革新性部件,其市场总额可达 781 亿美元, 2020~2025CAGR 可达 35.8%。巨大的市场增量使得相关公司都希望能够乘着智能化升 级的东风扩大公司业务,占领市场空间。我们将与自动驾驶有关的市场进行拆分,主要 有八个模块,其中与人工智能息息相关的决策软件、AI 芯片以及传感器(摄像头、激光雷达、高精地图、毫米波雷达)的发展空间更大。

4.3. 积极入局汽车芯片领域,成为平台化芯片的领导者

4.3.1. 从移动业务起家,逐渐扩大应用市场

在智能手机兴起的 2008 年时,英伟达试图进入移动芯片市场。为此,公司开发了 Tegra 系列芯片,采用了 ARM 的 CPU 架构,并集成了自家的 GPU 芯片,组成了一套 SOC(system on a chip)系统。早期的 Tegra 芯片注重功耗及效率的表现,主要用在微软 的一款 MP3 和 Kin 手机上;后期则更专注于提供高性能,其典型产品是任天堂的 Switch, 英伟达的 Tegra X1 给任天堂 Switch 带来了极高的画面体验。由于自动驾驶中对于画面 的实时处理要求很高,因此后续的 Xavier 以及 Orin 系列也开发了相应的车规级芯片。 从移动芯片的发展轨迹来看,英伟达的 CUDA 核心数量也快速增长,RAM 的容量和带 宽也迅速提高,移动芯片的性能始终保持竞争优势。

4.3.2. AI 芯片逐渐专业化,平台化芯片发展空间更广

AI 芯片为自动驾驶提供算力保障。随着图像/视频和雷达等传感器接受的数据量越 来越大,对视觉芯片的实时算力要求也越来越高,据估计满足安全冗余的 L2 级的算力 要求至少需要 10TOPS(INT 8)以上,传统的 MCU(Microcontroller Unit,微控制单元, 也称为单片机)算力最多只能达到 GOPS(比 TOPS 小一千倍),完全不能满足图像识别 的算力要求。为了满足自动驾驶的需求,多家芯片厂商开发出了针对车载市场优化的 AI 芯片。当前主流的车载 AI 芯片按架构主要分为三类:GPU、FPGA、ASIC。其中 GPU 通用性较强因而场景适应性强,但功耗相对较高。FPGA 运算速度快,通用性弱于 GPU 但功耗优于 GPU,因其易修改,主要用途是做 ASIC 的验证版本。ASIC 属于为 AI 特定 场景定制的芯片,通用性低但针对特定场景的每瓦功耗以及安全性更好,属于最终阶段 的产品,开发成本较高。我们测算,汽车领域的 AI 芯片市场规模将从 2020 年的 25 亿 美元增长到 2025 年的 105 亿美元,2020~2025 的 CAGR 达 44%。

以英伟达为代表的平台化芯片的发展空间更为广阔。目前芯片的解决方案主要有为 提供软硬件整套解决方案、传统汽车电子厂商转型、平台化芯片以及整车厂自研四种模 式。特斯拉可类比为手机界的苹果,核心的 AI 芯片以及相应的算法均自研,但由于芯 片设计等要求非常高,不仅需要投入大量时间、资金,还需要有相应的技术人才支撑, 对于大多数整车厂来说很难实现;Mobileye 以自研算法起家,早期与意法半导体合作研 发芯片,后来被 Intel 收购后,形成了软硬件一体化的能力,因此 Mobileye 是以整套解 决方案的模式向整车厂兜售,其优点是可靠性强且整车厂使用方便,但缺点是整车厂获 得的是封闭的算法系统,无法自研算法,因此被特斯拉、小鹏、蔚来等希望掌握算法能 力的整车厂所弃用;平台化芯片以英伟达为代表,目前市场上还有高通、地平线、华为 和黑芝麻等厂商,这个方案的思路是提供平台化芯片以及算法开发工具链(包括示例算 法),整车厂可根据自身软件研发能力自行选择从哪个层面开始进行软件/算法的研发, 自由度较大,因此受到了以小鹏、蔚来、理想、百度、小马智行以及 AutoX 为代表的整 车厂和科技公司的欢迎,类比来看,平台化芯片类似于智能手机领域的高通和联发科, 市场空间较一体化自研的苹果大;除平台化芯片外,市场上还有传统的汽车电子厂商瑞 萨、恩智浦以及德州仪器等,也开始纷纷布局高算力的车载 AI 芯片,但以目前推出的 产品来看,其芯片算力相对较低,且单瓦功耗也比较大,客户主要是传统的 Tier 1 厂商 以及部分科技公司。

4.3.3. 整合移动芯片的车载 AI 芯片平台,成为平台化芯片的代表

产品自由度高,客户可根据需求选择合适的芯片平台方案。在 Tegra 系列芯片的基 础上,英伟达集成了一些特殊功能的 GPU 以及辅助芯片,推出了英伟达 Drive 系列车载 AI 芯片平台。早期的车载 AI 芯片平台与单个移动芯片差别不大,但随着车载系统的要 求不断多样化,英伟达 Drive 系统也增加了很多选择。例如 Drive PX Xavier 仅配备了一 块 Xavier 芯片,其算力为 30 TOPS,功耗仅为 30W,适合用在 L2 级的量产车型中,例 如小鹏 P7 就采用了此款车载芯片平台;对于 L4 级车辆的车载 AI 芯片平台,仅仅一个 Xavier 芯片算力不够,因此采用了两个 Xavier 芯片加上两个图灵架构的 GPU,使算力 达到了 320TOPS,其功耗也增加到了 500W;蔚来希望打造自己的计算平台,因此从英 伟达这里选购的是独立的 Orin 芯片。不同的客户可以依照不同的使用场景选择适合的 产品,这极大地增加了英伟达车载 AI 芯片的使用场景。

4.3.4. 软件安全性高,易于上手且生态丰富,助力 AI 芯片占领市场

不仅算力领先,英伟达易于上手的软件工具链极大地了方便了芯片使用者的开发过 程。同数据中心基础芯片类似,英伟达十分重视对软件工具链的开发。英伟达不仅花费 了大量的研发资金,成立了测试小组专门改装了车辆以提高英伟达的芯片及相关软件工 具链的安全性与稳定性,还积极听取客户的意见并对相关要求作出回应。在不断的测试 中,软件工具链的可用性也不断提高。安全、可靠且易用的软件工具链不仅可以让软件 开发人员快速上手并熟练掌握芯片的调用技巧,还可以保证软件的不会在汽车这个安全 性要求极高的领域出现差错,这也是整车厂采用英伟达方案的主要原因之一。英伟达的 软件还有一个特点是其软件开放性高。有丰富软件开发能力的客户可以从底层操作系统 开始自行研发,而初入此领域的客户可以从较上层的应用软件开始研发,底层使用英伟 达搭建的通用系统。英伟达灵活的使用方案适配性强,潜在客户数量巨大。

4.3.5. 开拓自动驾驶虚拟测试平台,降低自动驾驶设计门槛

除平台化芯片外,英伟达也积极推广虚拟测试平台 Constellation。NVIDIA DRIVE Constellation 是数据中心解决方案,集成了功能强大的 GPU 和 DRIVE AGX Pegasus。 在 GPU 上运行的高级可视化软件模拟输入到 Pegasus 的摄像机、普通雷达和激光雷达数据,而 Pegasus 对这些数据进行处理,就好像它真的在路上行驶一样。这个可扩展系 统能够生成数十亿英里的不同自动驾驶汽车测试场景,用于在部署之前对“硬件在回路” 和“软件在回路”进行验证,极大减轻自动驾驶的初期开发成本。这个虚拟平台包括环境 测试、车流测试、车辆测试、传感器测试以及超车模型测试等等。当然,目前的模拟测 试还无法替代真实路况测试,但随着英伟达模拟功能的不断完善,其测试能力也会逐渐 提高。

4.4. 汽车业务营收稳定增长,平台化芯片市场空间更大

英伟达汽车业务目前仍落后于 Mobileye。 截至到 2021 年 7 月,在车载汽车芯片市 场,按营收来看,只有 Mobileye 和英伟达两大巨头,两者的营业收入可占整个市场收入 的 90%。Mobileye 以整体解决方案的形式较早占领市场,英伟达以平台化芯片形式逐渐 获得了希望自研自动驾驶算法的客户的青睐。从营收来看,英伟达在 FY2021 Q3(公历 2020 年 8~10 月)以来收入增长较慢,与 Mobileye 差距拉大,主要与英伟达客户多为新 势力车厂,受新冠疫情影响其需求波动性较大导致。但从长期来看,希望算法自研的整 车厂会越来越多,英伟达的平台化模式的优势会逐渐显露出来。

自动驾驶的决策算法是自动驾驶的核心竞争力,能够进行算法自研的英伟达平台化 芯片更受欢迎。在家用车领域,沃尔沃、奔驰以及中国的造车新势力蔚来、小鹏与理想 和传统整车厂上汽集团都选择和英伟达合作,推动汽车的智能化。值得一提的是,造车 新势力早期版本的车辆都采用了 Mobileye 的芯片,但由于无法自研算法,于是都转向了 英伟达。小鹏的 P7 是中国最早的搭载 Drive Xavier 车载芯片的量产车型,于 2020 年 7 月问世;由于英伟达车载芯片的良好编程平台基础,小鹏 P7 得以在短时间内数次 OTA 升级,向用户推出了高速领航辅助驾驶 NGP(Navigation Guided Pilot)以及不依赖停车 场改造的自主泊车功能,使车辆用户不断体验到最新的功能,也促进了汽车的销量。在 商用车领域,英伟达也收获了新的合作。专注于无人出租车 Robotaxi 的 AutoX 公司使 用英伟达的车载芯片系统实现了 L4 级功能,专注于卡车领域的智加科技也宣布,即将 交付给亚马逊物流的 1000 辆自动驾驶卡车也将采用英伟达的车载芯片系统。据英伟达 在 GTC2021 大会透露,其自动驾驶在手订单达 80 亿美元,可见其芯片平台的受欢迎程 度。

英伟达非常重视汽车业务的发展,积极布局汽车领域上下游合作。2017 年,黄仁 勋曾把英伟达的未来押注在 AI 上,把它称之为一家 AI 公司。事实证明,他的判断成 就了现在的英伟达。如今,黄仁勋又把眼光看向了汽车行业和自动驾驶。2021 年 1 月, 他在与欧洲《汽车新闻》交谈中曾预测,到 2030 年将有 20% 的汽车实现高级自动驾 驶,其中大部分会采用英伟达技术。黄仁勋说:我们不是一家汽车制造商,我们是科技 创造者。他表示,有的客户想只购买英伟达的计算解决方案,软件完全完全自己开发, 而有的客户希望英伟达能提供完全的堆栈。对于这两种合作方式,英伟达都欢迎。目前, 汽车业务营收在英伟达总营收中占比还非常小,但黄仁勋看得足够长远:“我们的优势 是很有耐心,这需要公司有很大的决心、持久力,以及具有影响力的核心技术,我们着 眼于长远发展。”随着英伟达在汽车领域布局的不断深入,其合作伙伴已经深入到整车 厂和上游的软硬件公司,英伟达在汽车领域的影响力在不断的扩大。

5. 未来业务:Omniverse—制定通用标准,打通不同设计平台,成 为元宇宙平台级应用

NVIDIA Omniverse 是一个易于扩展的开放式平台,专为虚拟协作和物理级准确的 实时模拟打造。创作者、设计师、研究人员和工程师可以连接主要设计工具、资产和项 目,从而在共享的虚拟空间中协作和迭代。开发者和软件提供商还可以在 Omniverse 的 模块化平台上轻松地构建和销售扩展程序、应用、连接器和微服务,以扩展其功能。 Omniverse 易于扩展并支持多 GPU,基于 Pixar 的 Universal Scene Description (USD) 并由 NVIDIA RTX 技术提供支持,能够简化和加速复杂的 3D 工作流程。与传统三维 设计制作流程不同,Omniverse 并不需要多个流程分开贴图、渲染最后出图,它提供实 时协同工作的平台,可以让建模师、灯光师、特效师等每个部门专业人员无缝协同工作。

我们认为,英伟达希望用 Omniverse 来复制 CUDA 的成功经验,使英伟达成为未来 元宇宙时代(虚拟世界)软硬件一体化的基石性公司,给英伟达带来新的收入增长点。 英伟达早在 2006 年就前瞻性地投入资金开发了 CUDA 系统,可以方便开发者调用 GPU 资源来进行 AI 模型训练以及科学计算等领域,英伟达的 GPU 也成为 AI 领域不可或缺 的基础,其以 CUDA 为基础的数据中心业务营收在 2019-2021 年近三年已经占公司营收 的 40%以上。而 Omniverse 将虚拟世界的设计门槛大大降低,这有助于 UGC(User Generated Content,用户生成内容)的形成和生态系统的建立,且将和英伟达的数据中 心业务和云游戏业务产生联动,使英伟达介入更多软件层面的业务,形成软硬件联动, 筑牢虚拟世界的壁垒。美女

5.1. Omniverse 迭代历史

2020 年 12 月,英伟达发布 Omniverse 公测版并发布多个 APP,包括专为建筑、工 程和施工专业人员设计的 Omniverse View;专为媒体、娱乐和制造/产品设计行业的设计 师、创作者和专家设计的 Omniverse Create;以及专为 3D 深度学习研究人员设计的 Omniverse Kaolin。

2021 年 2 月,Autodesk 3ds Max Connector 在 NVIDIA Omniverse 上推出,将 Autodesk 3dx Max 中的 3D 建模、可视化等实时同步到 Omniverse 中。

2021 年 4 月,英伟达推出面向企业的 Omniverse 设计协作和模拟平台。包含 NVIDIA Omniverse Nucleus 服务器和 NVIDIA Omniverse Connectors,两个终端用户应用: Omniverse Create,可加速场景构成,用户可通过实时互动来装配、点亮、模拟和渲染场 景;Omniverse View,支持无缝设计协作,并能通过逼真的渲染技术实现建筑和工程项 目的可视化。同时包含 vWs 软件,让协作者在任何地方自由运行各类图形密集型 3D 应 用。

2021 年 8 月,英伟达更新 Omniverse,三管齐下,增加 Blender USD 支持、AdobeSubstance 3D 插件和 GANverse3D 扩展工具。推出基于 Omnviserse 的新的 DRIVE Sim。

2021 年 11 月,英伟达 Omniverse Enterprise 正式发布,推出 Omniverse Replicator, 一种生成具有正确标注的合成数据的引擎,用于训练 AI 网络。缩小仿真到真实的域差 距。推出 NVIDIA Omniverse Avatar 创建 AI 虚拟形象的平台。推出其他新功能 NVIDIA CloudXR,Ominverse VR,Omniverse Remote,Omniverse Farm,Omniverse Showroom。

5.2. Omniverse 的组成

整体来看,Omniverse 有三块内容,第一块是 Connect 和 Nucleus,通过这两个模块 可以实现数据在不同平台的同步设计和实时渲染。第二块是 Simulation 和 Renderer,这 两个模块是英伟达技术的集成,通过这两个模块实现虚拟世界的物理级仿真和渲染,是 实现数字孪生的底层工具。最后一块是 KIT,它是搭建 Omniverse 的基础包,Omniverse 即是通过 KIT 搭建而成,而 KIT 的底层代码是用 Python 来写的,这使得开发者可以更 方便地开发个性化的 Omniverse 模块。

5.2.1. Omniverse Connect,以插件分布连接 Nucleus

Omniverse Connect 库以插件的形式分布,使客户端应用能够连接到 Nucleus。完成 必要的同步后,DCC 插件将使用 Omniverse Connect 库应用从外部接收的更新,并在 必要时发布内部生成的更改。NVIDIA 已经在开源的 USD 发行版上构建了扩展和附加 的软件层,使得 DCC 工具和计算服务可以通过 Omniverse Nucleus DB 轻松地相互通信。 这些扩展和添加以及利用它们的应用程序插件统称为 NVIDIA Omniverse Connect。

5.2.2. Omniverse Nucleus,数据库与协作引擎链接多名用户

Omniverse Nucleus 是 Omniverse 的数据库和协作引擎。通过 Omniverse Nucleus,团 队可以将多个用户连接在一起,同时使用多个应用程序。这允许 人们使用他们最舒适 和最快的应用程序,并为快速迭代打开了许多大门。为此,Omniverse Nucleus 提供了一 组基本服务,这些服务允许各种客户端应 用程序、渲染器和微服务共享和修改虚拟世 界的表示。

Nvidia Omniverse Nucleus 提供的相关服务将允许任何应用或者渲染器的使用者同 步地对虚拟时间和相关渲染文件进行编辑和修改。比如通过 Connector 将 Unreal Engine 和 3DS MAX 文件同步到 Omniverse Nucleus 后,再将这两个平台的文件以 Omniverse View 或者 Omniverse Create 的方式进行打开和编辑。

Nvidia Omniverse Nucleus 具有两个的两个特点:

1. Nucleus 具有应用程序之间的高效协作和实时同步、用户和群组管理、保留所有 更改历史、控制访问列表和权限管理、安全的传输协议、边缘缓 存与备份等功能,具备 数据库的基础和高级功能。

2. Nucleus 是一组服务的集合,利用其复杂的架构,同时支持 Windows 和 Linux, 可以在网络上使用,并允许 Client 层应用程序连接到这些服务。在 Nucleus 中,每个组 件都可以与多个其他组件相互通信。

5.2.3. Omniverse Kit,基于 USD 构建的工具包

Omniverse Kit 是基于 USD 构建的工具包,集合了英伟达所有技术,用于创建能够 解决实际问题的应用程序。它还可以用于开发用户自己的 Omniverse 应用程序。使用 Python 编写脚本,以 C++为核心提高效率,同时随附完整源代码,开源进行远程控制、 可帮助开发者轻松搭建各种模拟组件和应用程序。 Kit 核心是高度模块化。Kit 中包含 许多用于执行 PhysX、渲染、计算机图形等 SDK,用于协调本机存储的 USD 数据对其 进行操控。Kit 中应用程序由扩展程序组成,扩展程序是 Kit 构建块,代码完全使用 python 编写,扩展程序还包括图标、图形、配置等。Kit 可以独立使用 Nucleus 文件路径字段、 文件网络、树状视图、添加搜索,连接到 Nucleus AI 索引服务的单独扩展程序,基本组 件主要由 USD/Hydra、Omniverse Client Libaray、Carbonite、Omniverse RTX Render、 Scriping、UI 构成。 n Extensions 是基于 Omniverse Kit 的应用程序的核心构建块。 Extensions 分为核心扩展和由核心扩展构成的其他扩展,核心扩展包括 Viewport、Stage、 Layers、 Content Browser、Version Control、Details Panel、Extensions Manager、MovieCapture、Audio、Saved Layouts 等程序,实现了窗口界面、加载卸载扩展程序、声音支 持等多种程序基本功能。在 Core Extensions 支持下,实现了 Simulation Extensions、 Animation Extensions、Design Extensions、Omniverse Remote Extensions、AI ToyBox Extensions 、Utility Extensions 等多种扩展,构建了 Isaac、Create 等多种应用。

5.2.4. Audio2Face:基于 Omniverse Kit 的面部动画生成技术

Omniverse Audio2Face 是一款由 AI 支持的应用程序,仅从一个音频来源即可生成 和音频同步的对唇面部表情动画(由 AI 提供技术支持)。可简化 3D 角色的动画制作, 以与任何配音音轨匹配,方便游戏电影和实时数字助理制作动画角色。Audio2Face 还提 供了一个完整的字符传输管道,为用户提供了一个简化的工作流,使他们能够使用Audio2Face 技术驱动自己的字符。数据转换选项卡还提供了各种输出格式——包括连接 自定义的 Blendshape 网格。 Audio2Face 工作原理:Omniverse Audio2Face 应用程序基 于原始 NVIDIA 研究论文。Audio2Face 预装有“Digital Mark”。这是一个 3D 角色模型, 可以使用用户的音轨进行动画处理,因此入门步骤非常简单。只需选择音频并将其上传 到应用程序即可。该技术将音频输入到预先训练的深度神经网络中,而网络输出会实时 生成角色的面部动画。用户可以通过编辑各种后处理参数来编辑角色的性能。然后,网 络输出会生成角色的 3D 顶点网格,以创建面部动画。用户在此页面上看到的结果主要 为 Audio2Face 的原始输出,很少或没有编辑过后处理参数。 Audio2Face 支持音频输 入、角色转换、实例多样、数据转换等多种丰富的功能,为用户带来多样体验。

5.2.5. Isaac Sim:基于 Omniverse Kit 的 AI 机器人模拟仿真平台

NVIDIA Isaac Sim 由 Omniverse 提供支持,是一款可扩展的机器人仿真应用程序和 合成数据生成工具,为逼真、精确的虚拟物理环境提供支持,以开发、测试和管理 AI 机 器人,拥有生成合成数据、模拟操作、模拟导航、机器人/资产导入四大功能。

1. 生成合成数据:训练感知模型需要大量多样化的数据集。对这些数据集进行合 成非常耗时。通过在 Isaac Sim 中使用 Omniverse Replicator,开发者可以引导 训练任务。在项目的早期阶段,合成数据可以加速概念验证或验证ML工作流。 在开发周期的后期阶段,可以用合成数据扩充真实数据,以减少训练生产模型 的时间。Isaac Sim 内置了对领域随机化的支持,允许在纹理、颜色、光照和位 置上进行改变。

2. 模拟操作:机器人的关键应用领域之一是能够识别、拾取和移动物体的机械手。 在现代工厂或仓库环境中,机械手可以大大提高处理和分拣物料的效率和吞吐 量。Issac Sim 内置了一些常见任务的例子,比如填充垃圾箱和堆叠垃圾箱。这些基于 python 的示例可以修改为适用于用户自定义的任务。

3. 模拟导航:自主移动机器人必须能够在其环境中从 A 点移动到 b 点。这种能力 是由导航堆栈实现的。Isaac Sim 支持开发和测试机器人导航能力。Isaac Sim 提 供了一个完整的例子。

4. 机器人/资产导入:将机器人模型和其他资产导入机器人模拟器至关重要,并且 在设置培训或测试场景时是一项重大挑战。利用 Omniverse 中内置的强大连 接器功能,Isaac Sim 内置了对流行产品设计格式的支持。 高级 URDF 导入 器已在机器人模型上进行了测试。 此外,CAD 文件可以直接从 Onshape 和 STEP 文件导入,只需少数后处理即可。

5.2.6. Omniverse Create,基于 Kit 加速高级场景合成

Omniverse Create: 是一款基于 Omniverse Kit 构建的应用程序,它能够加速高级场 景的合成,同时允许使用者以交互方式实时组装、模拟和渲染 Pixar USD 中的场景。通 过Create,用户可以将自己的任意assets转译进Create中进行编辑,也可以直接从Create’s Libraries 中调用已有的 assets,这些 assets 包括:树木,家具,道路,人物等。Create 同 时也配备了 NVIDIA RTX™ 渲染器,该渲染器支持多 GPU 的系统,可以高速可视化真 实照片场景。再加上基于 MDL 的 NVIDIA vMaterials,使得场景更加真实且具备在视觉 上的交互性。对于高速播放和创作,Create 还包括由 RTX 支持的实时光线追踪。通过使 用 Omniverse Connector,设计师还可以从行业领先的渲染工具(如 Unreal Engine 或 Houdini)导入景观。

5.3. Omniverse 特点与行业应用场景

5.3.1. Omniverse 特点突出,优势定位明晰,与传统软件比更易上手

英伟达能够实现 Omniverse,与其软硬件生态系统布局息息相关。英伟达的构想是,流媒体数据通过云传递到以 GPU 为主的 RTX 处理单元,通过 Nucleus DB,一方面背靠 存储和各个算法模块,另一方面连接所有的相关设计平台,来实现通用平台实时渲染能 力。

Omniverse 的优点十分突出,在技术上提供了更加便捷的编辑方式,提供协同编辑 的平台,也让上手难度降低。与传统三维设计制作流程不同,Omniverse 并不需要多个 流程分开贴图、渲染最后出图,它提供实时协同工作的平台,可以让建模师、灯光师、 特效师等每个部门专业人员无缝协同工作。Omniverse 可以让使用者一边查看渲染结果, 一边进行编辑。现在效果图的渲染主要使用的是 3d max 和 maya 等软件,这类软件在每 次编辑后需要生成渲染效果图,时间长度根据渲染的复杂程度不同而不同,这使得在开 发者们在制作渲染时,很难直观的修改一些自己不满意的渲染效果,每次都需要退回原 来的开发文件进行修改后再次生成渲染效果。Omniverse 则允许 3d max 和 maya 文件进 行实时渲染,可以一边查看渲染结果一边进行编辑。由于算力限制,目前 Omniverse 还 无法做到像 3d max 和 maya 那种细腻的渲染画面,但英伟达也在不断升级算法能力,以 期带来更好的渲染效果。同时,Omniverse 内置了很多纹理和材质的预设值,可以更加 便捷的对渲染效果图进行一键编辑。通过 connector 软件,使用者可以使得 3d max 或 maya与omniverse同步运行,在一款软件上进行编辑时另一款软件也会同步反馈结果。 这意味着开发者或者好设计师可以在 3d max 或者 maya 中修改纹理或者材质的同时在 Omniverse 中立即看到效果,极大提高多人协作的效率。

5.3.2. 应用场景革新,改变行业流程

我们认为,NVIDIA Omniverse 的物理级模拟能力和强大的渲染能力,能够转变行 业工作流程,通过物理级准确的模拟,不仅可以更好的监控工业流程,甚至可以进行流 程的预测和效率改进。

1. 建筑、工程和施工:可以实现无缝协作,即使使用不同的软件应用程序,项目 团队也能在单个交互式平台上进行整合;可以一键实现光线追踪设计;可以缩 短审批时间,借助导出逼真模型的能力,团队、客户和承包商可以随时随地在 不同设备上查看高保真模型。

2. 制造业:从草图和表面模型到物理属性准确的渲染,团队能通过无缝的交互开 发产品概念和确定工程定义;真正连接起来的供应链组合各种应用程序的数据, 以确保建立一致且最新的数字核心,从而连接整个产品设计和制造流程,帮助 实时获取对业务至关重要的见解。

3. 媒体和娱乐业:NVIDIA Omniverse 让内容创作者能够利用各种创意应用程序 制作、反复修改和协同创作内容,以提供实时结果。

4. 游戏开发:NVIDIA Omniverse 通过将美术师、他们的资产和软件工具统一在 一个强大的平台上,帮助游戏开发者以创纪录的速度构建逼真的、物理上精确 的游戏。

5. 科学可视化:用户可以快速构建受广泛支持的开源 USD 格式的文件。借助该 解决方案,团队成员能够灵活地在其惯用应用中对数据进行可视化处理。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

      专题文章
        CopyRight 2018-2019 实验室设备网 版权所有