(在做语义分割的过程中,用到了LovaszSoftmax。针对本人的数据集,多分类时,LovaszSoftmax的效果优于CrossEntropy;二分类时,dice loss相对较好。

仅限本人的数据集,若有更好的方法和结果,欢迎留言讨论。

鉴于此,转载了一篇关于LovaszSoftmax的博客,记录一下心路历程。以下是转载原文,偷个懒 ^_^ )

==================================================================================================

论文:The Lovasz-Softmax loss: A tractable surrogate for the optimization of the intersection-over-union measure in neural networks

Github:https://github.com/bermanmaxim/LovaszSoftmax

 

CVPR2018

 

论文提出了LovaszSoftmax,是一种基于IOU的loss,效果优于cross_entropy,可以在分割任务中使用。最终在Pascal VOC和 Cityscapes 两个数据集上取得了最好的结果。

 

cross_entropy loss:

Softmax 函数:

Jaccard index :

优化的IOU loss:

论文贡献:

  • 结合Lovasz hinge 和Jaccard loss 解决2值图片的分割问题
  • 提出了Lovasz-Softmax loss 对多个类别分割的参数设置
  • 设计了一个基于batch的IOU作为基于dataset IOU的高效代理
  • 分析和对比各种IOU测量方法
  • 基于本文的loss,对经典的分割方法的分割效果做出很大的提升
     

定义1:

定义2:

得出:

(1)对于前景背景分割的问题,使用Lovasz hinge

(2)对于多类别分割问题,使用Lovasz-Softmax loss

 

前景背景分割:

多类别分割:

优化的IOU:

实验结果:

(a)中第一个图为label,第二个图为特征,通过对第一个图进行高斯滤波

fi ∼ N (e; 1) ,e=1/2对于前景,e=-1/2对于背景。

(b)Lovasz hinge 的bias的绝对最小值和Jaccard loss 最接近

 

二类分割:

多类分割:

总结:

分割任务可以使用的loss,相比cross entropy具有更好的效果。
 

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐