MFNet-多光谱(RGB-T)语义分割第一篇
标题MFNet: Towards Real-Time Semantic Segmentation for Autonomous Vehicles with Multi-Spectral Scenes一、OverviewRGB-T图像的语义分割可以用于自动驾驶,用于克服夜晚光照差以及天气条件恶劣的情况。本文提出了第一个RGB-T的语义分割数据集(城市场景),同时提出了MFNet模型用于多模态(R..
MFNet: Towards Real-Time Semantic Segmentation for Autonomous Vehicles with Multi-Spectral Scenes
一、Overview
RGB-T图像的语义分割可以用于自动驾驶,用于克服夜晚光照差以及天气条件恶劣的情况。本文提出了第一个RGB-T的语义分割数据集(城市场景),同时提出了MFNet模型用于多模态(RGB-T)的场景分析。(自动驾驶的要求:有效性即实时性;精度;鲁棒性)
二、Motivation
目前存在的语义分割模型多是以RGB图像为输入的,这严重依赖于光照条件以及天气情况,而红外图像可以很好地弥补光照不足等问题,捕捉到更多可见光图像所缺失的信息,因此多模态RGB-T的语义分割在自动驾驶(机器人感知)领域有着巨大的作用,它可以有效的提高运输速率,提高汽车的安全性。
实验证明,使用RGB或RGB-D图像的语义分割模型处理RGB-T输入的效果并不好,这是因为没有考虑到热图像与可见光图像信息间的互补关系。
三、Contributions
1.提出了一种新的多光谱融合网络(MFNet)结构,用于自动驾驶任务的实时图像分割。
2.建立了一个新的RGB-T数据集,其中包含1569个RGB-T城市场景图像对。同时这也是第一个带有像素级标注的RGB-T数据集(数据集中每张图像存成了四通道,使用时需要提取前三通道数据为RGB部分,第四个通道数据为T部分)
3.证明利用热红外信息可以显著提高夜间自动驾驶语义分割系统的性能以及对温度高于周围环境的目标的分割效果。
四.Model


从图1和表1中可以看出,MFNet使用两个单独的编码器分别提取RGB图像和T图像的特征信息,最后在译码器部分上采样操作前融合两种模态信息。同时所有卷积层的激活函数都使用leaky-ReLU。




3.在测试集中与SegNet和ENet对比

4.与SegNet和ENet的推理速度与参数数目对比

更多推荐

所有评论(0)