环视感知(Surround-View Perception) 的十年(2015–2025),是从“泊车辅助的拼图游戏”到“全场景 360° 空间理解”的进化。

如果说前置感知是车辆的“望远镜”,那么环视感知就是车辆的“皮肤”和“触觉”,负责近场()的全方位安全。


一、 演进三大阶段:从 2D 拼接 到 4D 占据

1. AVM 影像与规则时代 (2015–2018) —— “只是给人的眼睛看”
  • 核心功能: AVM(全景环视系统)。将四个鱼眼摄像头的画面进行形变校正和拼接,生成一张俯视图给驾驶员看。
  • 算法特征: 主要是图像处理算法(如标定、拼接、调色)。此时的感知主要由人眼完成,机器仅能处理极简单的超声波雷达融合,用于自动泊车时的“避障”。
  • 痛点: 鱼眼镜头畸变极大,边缘物体经常“断裂”或“隐身”,机器无法理解图像内容。
2. BEV 与 3D 目标检测时代 (2019–2022) —— “机器开始识图”
  • 核心技术: BEV(鸟瞰图)感知鱼眼深度估计

  • 特征: * 特征级融合: 不再是拼图,而是将四路(甚至更多)摄像头的特征提取出来,投影到一个统一的 3D 地平面坐标系(BEV)中。

  • 3D 检测: 算法开始直接在 BEV 空间内识别车辆、地锁、路沿。代表作如 BEVDetBEVFormer

  • 里程碑: 实现了行泊一体。同一套环视摄像头既能用于低速泊车,也能在城市领航中辅助变道监控。

3. Occupancy 与端到端时代 (2023–2025) —— “全息空间理解”
  • 核心技术: Occupancy Network(占用网络)语义分割
  • 2025 现状: * 体素级建模: 2025 年的环视算法(如华为、特斯拉 FSD v12 的近场方案)不再只认“车”或“人”,而是将车身周围空间切碎为无数个小方块(Voxel),判断哪个方块被“占据”了。这让车能避开路边的垃圾桶、垂下的树枝或倾斜的马路牙子。
  • 感知生根: 环视感知深度集成到端到端大模型中,不再有独立的“检测”步骤,而是直接根据周围 360° 的实时流输出驾驶轨迹。

二、 核心技术维度十年对比表 (2015 vs 2025)

维度 2015 (影像辅助时代) 2025 (全息空间时代) 核心跨越点
感知空间 2D 拼接平面 4D 占据格空间 (Occupancy) 从“看图”进化为“感应物理存在”
相机性质 模拟/低清鱼眼 800万像素高清鱼眼/广角 画质提升消除了边缘畸变的误判
处理逻辑 仅用于显示 (Display) 用于全场景感知 (Perception) 从辅助驾驶员到完全替代驾驶员
畸变处理 查表法几何校正 神经网络内源性畸变自适应 模型直接学习畸变特征,无损精度
近场精度 误差大于 厘米级精度 () 支撑了极窄车位自动泊车及窄路通行

三、 2025 年的技术巅峰:全场景自适应与安全闭环

在 2025 年,环视感知已经从泊车功能外溢,成为智驾系统的核心安全底座

  1. 鱼眼语义深度融合:
    2.0 时代的环视感知饱受“畸变导致测距不准”的困扰。2025 年,通过 Spherical CNN(球面卷积) 或专门针对畸变设计的 Transformer 算子,算法在图像边缘的识别准确率提升了 3 倍。
  2. eBPF 内核级视频流保障:
    环视感知涉及 4–6 路视频的并发处理,对总线带宽压力极大。
  • 实时性审计: 引入 eBPF 监控。它在内核层确保环视数据流在进入 NPU 推理前不被座舱娱乐系统的后台进程干扰。如果检测到帧延迟抖动超过 ,系统会自动压缩非关键区域分辨率,优先保命。
  1. 异形障碍物“通杀”:
    利用 Occupancy 网络,环视感知解决了自动泊车中最头疼的“马路牙子”和“地锁”识别问题。2025 年的系统在地下车库能实现 100% 的静态环境重建,即便光线昏暗,也能通过神经网络的低光增强实现精准定位。

四、 总结:从“全景图”到“全息图”

过去十年的演进,是将环视感知从**“司机的后视镜扩展”打造成了“自动驾驶的皮肤感知”**。

  • 2015 年: 它是一段视频,人看它来躲障碍。
  • 2025 年: 它是一个场,AI 在其中感知每一寸空间的物理占用,让车能够像灵巧的生物一样在拥挤窄路中穿行。
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐