一、官方教程

链接如下:https://docs.nvidia.com/jetson/agx-thor-devkit/user-guide/latest/quick_start.html#reinstall-usb-previous

此处唯一要注意的是,选择要选择在NVMe。

二、自带资源

网址:https://developer.nvidia.com/embedded/jetpack/downloads

自带资源包括如下:

Jetson Linux 38.2.1 自带环境总览表(官方基线)

一、系统与内核层(不可动)

分类 组件 版本 / 状态 说明
操作系统 Ubuntu 24.04 LTS (Noble) 官方指定
Jetson Linux L4T 38.2.1 JetPack 7 基线
内核 Linux Kernel 6.8 LTS Tegra 定制
架构 CPU Arch ARM64 (SBSA) Thor / Orin
启动 Boot UEFI + extlinux 服务器化
安全 TEE OP-TEE 已启用
驱动框架 RM OpenRM Thor 专用
1.1 关于SBSA

SBSA = Server Base System Architecture
👉 ARM 官方制定的“服务器级 ARM 硬件规范”

它不是一颗 CPU,而是一套 “服务器 ARM 平台必须遵守的统一硬件标准”

直观理解一句话:

SBSA 之于 ARM,就相当于“PC 规范”之于 x86 服务器

问题起因:

早期 ARM 平台的问题是:

  • 每家厂商硬件差异极大
  • 启动方式、时钟、定时器、中断控制器都不统一
  • 操作系统、驱动、容器、深度学习框架 难以通用

👉 SBSA 的目的:让 ARM 服务器“像 x86 一样好用”

做了什么

1️⃣ 固定的启动与固件接口

  • UEFI
  • ACPI
  • 标准化启动流程(不再是五花八门的 device tree)

2️⃣ 固定的中断与定时器

  • GIC(Generic Interrupt Controller)
  • ARM Generic Timer

3️⃣ 标准的 I/O 与 PCIe

  • PCIe 枚举方式统一
  • DMA、一致性模型规范化

4️⃣ 标准化内存与 NUMA

  • 支持多路 CPU
  • 支持 NUMA 架构(服务器必备)

ARM64 是指令集,SBSA 是服务器级规范
ARM64(SBSA) = 像 x86 服务器一样规范的 ARM 服务器平台

二、GPU / AI 计算栈(系统级内置)

分类 组件 版本 说明
CUDA CUDA Runtime 13.0 系统内置
CUDA 工具 nvcc / utils 13.0 nvidia-l4t-cuda-utils
深度学习 cuDNN 9.12 系统级集成
推理 TensorRT 10.13.x 不再单独暴露 deb
GPU 管理 NVML 内置 Jetson 专用
专用加速 PVA 内置 视觉加速

👉 结论
CUDA / cuDNN / TensorRT 全部“已就绪”,严禁手动安装


三、图形 / 显示 / 窗口系统

分类 组件 版本 状态
OpenGL Desktop GL 4.6
OpenGL ES GLES 3.2
Vulkan Vulkan 1.4
Vulkan SC Safety Critical 1.0
显示协议 Wayland 内置
Compositor Weston 内置
传统窗口 X11 内置
兼容层 XWayland 内置

四、多媒体 / 相机 / 视频管线

分类 组件 状态 说明
多媒体框架 GStreamer NVIDIA 加速版 出厂自带
摄像头 Argus CSI / GMSL
摄像头 SIPL Ethernet Camera
视频解码 HW Codec OpenRM
视频编码 HW Codec OpenRM

五、系统工具与管理组件

分类 工具 状态 说明
功耗管理 nvpmodel 模式切换
风扇控制 nvfancontrol 自动 / 手动
外设配置 jetson-io GPIO / Pinmux
监控 tegrastats Jetson 独有
网络 NetworkManager 默认
WiFi wpa_supplicant NVIDIA 版 默认

六、默认 不自带(需要你后续自己装)

组件 是否自带 备注
NVIDIA Container Toolkit Jetson 专用方式
ROS / ROS 2 官方支持 Humble
Isaac ROS 官方标注 Coming soon
DeepStream SDK 形式
浏览器 需自行安装
VS Code Remote 推荐

七、你当前系统状态对应关系(与你 dpkg 输出对齐)

dpkg 中看到的包 属于哪一类
nvidia-l4t-core 系统核心
nvidia-l4t-kernel* 内核 / 驱动
nvidia-l4t-cuda* CUDA Runtime
nvidia-l4t-multimedia* 多媒体
nvidia-l4t-wayland / x11 显示系统
nvidia-l4t-nvpmodel 功耗管理
nvidia-l4t-optee 安全

👉 全部匹配,且没有异常项

各部分说明

一、系统与内核层:这是“地基”,你基本不碰

Ubuntu 24.04 + Jetson Linux 38.2.1

这部分可以理解为:

“给 Thor 定制过的服务器级 Ubuntu”

  • Ubuntu 24.04:
    你熟悉的用户空间(apt、systemd、gcc、Python)
  • Jetson Linux 38.2.1:
    NVIDIA 把 驱动、GPU、相机、加速器 全部“焊”进系统里的那一层

👉 作用
保证你一开机,就能用 GPU、用相机、用硬件加速

Kernel 6.8 + OpenRM

这是 Thor 非常“新”的一层。

  • Kernel 6.8:新内核,面向 AI / 高并发 / 服务器

  • OpenRM:
    新一代 GPU / 多媒体资源管理方式

    目标是:稳定、隔离、容器友好


二、GPU / AI 计算栈:这是 Thor 的“心脏”

这一块你以后天天用,但很少直接碰包本身


CUDA(Runtime + Utils)

你可以把它理解成:

“GPU 的操作系统接口”

  • CUDA Runtime:
    让程序能把任务丢给 GPU
  • CUDA Utils / nvcc:
    编译 CUDA 程序、跑 kernel

👉 你什么时候用?

  • 写 CUDA
  • TensorRT 推理
  • PyTorch / TensorFlow(底层)

cuDNN

这是:

“神经网络算子加速库”

  • 卷积
  • Attention
  • RNN
  • Transformer 底层

👉 你什么时候会感知?

  • 你会发现:
    👉 同样的模型,Jetson 跑得“还行”
  • 但你不会直接 import cuDNN

TensorRT

这是 Thor 上最重要的“上层武器”

“推理专用引擎”

作用:

  • 把模型(ONNX / PyTorch)
    → 编译成 Thor GPU 最优执行图
  • 控制精度(FP16 / INT8)
  • 控制显存 / batch / latency

👉 你什么时候会真正用到?

  • 当你追求:
    • 延迟
    • 吞吐
    • 稳定性
  • 比如:
    • 多模型并行
    • 实时系统
    • 机器人推理

三、图形与显示:不是为了“好看”,而是为了“可用”

OpenGL / Vulkan

这不是给你打游戏的。

主要用在:

  • Gazebo / 仿真
  • 相机可视化
  • NoMachine 远程桌面
  • 工具 UI

👉 你什么时候会感知?

  • 一开 Gazebo
  • 一开 GUI 程序
  • 一连 NoMachine

Wayland / X11 / XWayland

这是:

“窗口系统兼容层”

  • Wayland:新一代
  • X11:老但稳
  • XWayland:
    让老 X 程序跑在 Wayland 上

👉 对你意味着什么?

  • GUI 程序“能跑”
  • NoMachine 能用
  • 长期跑 GUI = 吃资源

四、多媒体 / 相机:这是 Jetson 的“传统强项”

GStreamer(NVIDIA 加速版)

这是:

“一切视频 / 相机 / 编解码的正解”

用来干什么?

  • 摄像头采集
  • 视频解码
  • 推流
  • 多路视频管线

👉 你什么时候会用?

  • 相机
  • 机器人感知
  • 视频流

👉 重要认知

  • 不要用纯 OpenCV 硬怼视频
  • GStreamer 才是正道

Argus / SIPL

这是:

“相机硬件抽象层”

  • Argus:CSI / GMSL
  • SIPL:以太网相机

👉 你什么时候会感知?

  • 插相机
  • 调参数
  • 做多相机系统

五、系统工具

nvpmodel

这是:

“功耗 / 性能档位选择器”

  • 控制:
    • 核心数
    • 频率
    • 功耗上限

👉 什么时候用?

  • 跑性能实验
  • 跑 Demo
  • 调稳定性

tegrastats

这是:

“Jetson 的心电图”

你用它看:

  • GPU 占用
  • 内存
  • EMC 带宽
  • 温度

👉 这是你判断“系统是否健康”的唯一靠谱工具


jetson-io

这是:

“外设 / 引脚配置工具”

你接:

  • GPIO
  • I2C
  • SPI
  • UART

👉 机器人 / 嵌入式必用


六、设计选择

这一点非常重要:

Docker / ROS / DeepStream

不是 NVIDIA 忘了给你,而是:

他们希望你“自己决定上层架构”

  • Docker:你决定要不要容器化
  • ROS:你决定 ROS1 / ROS2 / 版本
  • DeepStream:你决定是否做视频 AI

👉 系统只提供“地基”,不上“玩法”


七、把整张表压缩成一句“直觉”

Jetson Thor 的系统设计思路是:
底层全部给你焊死、调稳;
上层完全放权给你折腾。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐