芯片是AI基础设施的物理基石,理解它们的区别对于设计AI系统至关重要。

在这里插入图片描述


核心概念:通用 vs. 专用

首先,理解一个光谱:通用性专用性

  • 通用性越强,灵活性越高,能处理的任务类型越多,但针对特定任务的效率和能耗可能不是最优。
  • 专用性越强,为特定任务优化的程度越高,效率和能耗表现极佳,但能处理的任务范围很窄。

这些芯片在这个光谱上的位置如下图所示:

quadrantChart
    title 计算芯片通用性与效率谱系图
    x-axis “通用性 / 灵活性” --> “专用性 / 固定性”
    y-axis “低效率 / 高能耗” --> “高效率 / 低能耗”
    quadrant-1 “灵活但低效”
    quadrant-2 “高效且灵活”
    quadrant-3 “僵化且低效”
    quadrant-4 “高效但专用”
    “CPU”: [0.2, 0.2]
    “FPGA”: [0.4, 0.7]
    “GPU”: [0.6, 0.5]
    “NPU / TPU”: [0.85, 0.9]
    “ASIC”: [0.95, 0.95]

接下来,我们详细看每一种芯片。


1. GPU(Graphics Processing Unit)图形处理器

  • 本质: 最初为并行处理大量图形像素而设计。它是一种高度并行化的通用处理器
  • 架构特点: 拥有成千上万个计算核心,虽然每个核心相对简单,但能同时处理大量相似的计算任务。
  • 与AI的关系: 深度学习中的矩阵乘法和卷积运算本质上是高度并行的,与GPU的架构完美契合。NVIDIA通过CUDA生态将其变成了AI训练的默认选择
  • 优点:
    • 高并行计算能力: 非常适合AI训练和推理。
    • 通用性强: 除了AI,还能用于科学计算、图形渲染等。
    • 生态成熟: CUDA是AI开发的事实标准,工具链丰富。
  • 缺点:
    • 功耗较高: 为了通用性牺牲了能效。
    • 成本高: 高端GPU价格昂贵。
  • 代表厂商: NVIDIA, AMD。

2. TPU(Tensor Processing Unit)张量处理器

  • 本质: 谷歌专门为神经网络推理和训练设计的ASIC。名字来源于神经网络的核心运算——张量(Tensor) 处理。
  • 架构特点: 采用脉动阵列架构,极大地优化了矩阵乘法的吞吐量和能效。它直接连接主机CPU,减少数据I/O瓶颈。
  • 与AI的关系: 为TensorFlow框架深度优化,在谷歌云上提供服务。在特定任务上,其效能远超同期GPU。
  • 优点:
    • 极致能效: 专为AI设计,性能/功耗比极高。
    • 高吞吐量: 在处理大规模批量数据时速度极快。
  • 缺点:
    • 专用性强: 基本只能用于AI计算,灵活性差。
    • 生态锁定: 主要通过谷歌云服务使用,与谷歌技术栈深度绑定。
  • 代表厂商: Google。

3. NPU(Neural-network Processing Unit)神经网络处理器

  • 本质: 一个通用术语,指专门用于加速神经网络相关计算的处理器。TPU就是一种NPU。
  • 架构特点: 通常集成在SoC中,作为协处理器,专注于加速AI模型的推理过程(有时也包括训练)。重点优化卷积、池化、激活函数等操作。
  • 与AI的关系: 广泛应用于边缘设备和移动端,如手机、摄像头、自动驾驶汽车,用于实现人脸识别、语音助手等本地AI功能。
  • 优点:
    • 高能效: 极低的功耗,适合电池供电的设备。
    • 低延迟: 数据在本地处理,无需上传云端,响应快。
  • 缺点:
    • 算力相对有限: 主要用于推理,不适合大规模训练。
    • 通用性差: 专为神经网络设计。
  • 代表厂商: 华为(昇腾)、苹果(A/M系列芯片中的NPU)、高通、寒武纪。

4. FPGA(Field-Programmable Gate Array)现场可编程门阵列

  • 本质: 一种硬件可重构的芯片。用户可以通过硬件描述语言(HDL)在出厂后“烧写”特定的电路功能,使其“变成”专用的硬件。
  • 架构特点: 由大量可编程逻辑单元和连线资源组成,可以根据算法需求定制硬件电路。
  • 与AI的关系: 常用于算法尚未完全固定、需要快速迭代或低延迟响应的场景,如通信基站、金融高频交易、以及一些特定模型的推理加速。
  • 优点:
    • 灵活性高: 硬件可编程,能适应算法变化。
    • 能效优于GPU: 定制化电路比通用GPU更高效。
    • 极低延迟: 硬件直连处理,延迟可预测且极低。
  • 缺点:
    • 开发难度大: 需要硬件工程师使用HDL开发,周期长、成本高。
    • 绝对算力通常低于顶级GPU/ASIC: 单位面积的计算密度相对较低。
  • 代表厂商: Xilinx(AMD)、Intel(Altera)。

5. ASIC(Application-Specific Integrated Circuit)专用集成电路

  • 本质: 为特定应用或客户量身定制的芯片。一旦设计制造完成,电路就固定无法更改。TPU、NPU以及比特币矿机都是ASIC。
  • 架构特点: 为终极目标进行全定制设计,没有任何冗余逻辑。
  • 与AI的关系: 当某个AI算法或应用(如自动驾驶的感知模型)变得非常稳定和成熟,且需求量极大时,为其设计ASIC可以达到极致的性能、能效和成本控制
  • 优点:
    • 性能、能效、成本最优: 在特定任务上无可匹敌。
    • 体积小: 高度集成。
  • 缺点:
    • NRE成本极高: 设计、流片费用惊人。
    • 开发周期长: 从设计到量产需要数年时间。
    • 完全不可变: 算法一旦改动,芯片可能就报废。
  • 代表厂商: 各类定制化芯片公司,以及自研芯片的大型科技公司(如谷歌、亚马逊、华为)。

总结对比

芯片类型 核心特点 优点 缺点 主要应用场景
GPU 通用并行计算 生态成熟,灵活性强,算力强大 功耗高,成本高 AI模型训练、高性能计算、图形渲染
TPU 为张量计算优化的ASIC 能效比极高,吞吐量大 专用性强,生态锁定 谷歌云上的大规模AI训练与推理
NPU 为神经网络优化的ASIC 能效比高,低延迟 算力有限,通用性差 手机、IoT等边缘设备的AI推理
FPGA 硬件可编程 灵活,能效较好,延迟极低 开发难,绝对算力较低 算法未定型、需要快速迭代或低延迟的推理
ASIC 全定制,电路固定 性能、能效、成本终极优化 开发成本高、周期长,不可更改 算法稳定、需求巨大的终极量产方案

如何选择?

  • AI模型训练和探索: GPU 是默认选择,得益于其强大的生态和通用性。
  • 大规模云端AI服务(推理): TPU自研ASIC(如AWS Inferentia)能提供更好的能效和性价比。
  • 边缘设备AI推理: NPU 是主流选择,实现低功耗、实时响应。
  • 特定行业应用(如通信、金融): FPGA 因其灵活性和低延迟而不可替代。
  • 终极优化和成本控制: 当业务和算法极其稳定后,投入 ASIC 是长远之选。

在现代AI基础设施中,异构计算 是常态——即在一个系统中协同使用多种类型的芯片(如CPU + GPU + FPGA),让合适的芯片处理合适的任务,以达到整体最优的效果。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐