实例分割模型解析:solo模型

论文链接:https://arxiv.org/abs/1912.04488
代码:https://github.com/WXinlong/SOLO

1.摘要

我们提出了一种新的、极其简单的实例分割方法。与许多其他密集预测任务(例如语义分割)相比,任意数量的实例使得实例分割更具挑战性。为了预测每个实例的掩码,主流方法要么遵循“检测然后分段”策略(例如,Mask R-CNN),要么首先预测嵌入向量,然后使用聚类技术将像素分组到各个实例中。我们认为通过引入“实例类别”的概念,从全新的角度来完成实例分割任务,该概念根据实例的位置和大小为实例中的每个像素分配类别,从而很好地将实例分割转换为单次分类可解决的问题问题。我们展示了一个更简单、更灵活的实例分割框架,具有强大的性能,达到了与 Mask R-CNN 相当的精度,并且在精度上优于最近的单次实例分割器。我们希望这个简单而强大的框架可以作为除实例分割之外的许多实例级识别任务的基线.

2.主要贡献

考虑图像中的对象实例之间的根本区别是什么?大多数情况是两个实例要么具有不同的中心位置,要不具有不同的对象大小。这一结果让人怀疑是否可以通过中心位置和对象大小直接区分实例?SOLO不是利用像素成对关系,而是在训练期间直接使用实例掩码注释进行学习,并且端到端的预测实例掩码,而无需进行分组后再处理。

3.方法

3.1 基本原理

如果对象的中心落入网格单元,则该网格负责
预测语义类别
分割该对象实例
SOLO连接到一个卷积主干,我们使用FPN,它生成不同大小的特征图金字塔,每个级别具有固定数量的通道,
有一张特征图,能够生成S的平方个mask,使用金字塔结构,金字塔中用了5个的话,就有5个S^2个mask出来
FPN的目的是为了检测图像中不同大小的对象

3.2模型结构图

实例分割模型解析:solo模型_第1张图片
如何解决平移不变性:原始的图移动了的话,对应的mask也得移动,所以它是位置敏感的,怎么把位置的信息加进去呢:
实例分割模型解析:solo模型_第2张图片
在mask部分加两层,如果原始特征张量的大小为H×W×D,则新张量的大小变为H×W×(D + 2),其中最后两个通道是x-y像素坐标。
要想保证每一个grid都有一个channel对应,S的平方是比较大的,怎么把复杂度降下来:
X-Y解耦
实例分割模型解析:solo模型_第3张图片
在decoupled solo中,原来的输出张量H×W×S^2
被替换为两个输出向量X∈R(H×W×S)和Y∈R(H×W×S),分别对应两个轴,因此输入空间从H×W×S^2减少到H×W×2S,该对象的掩膜被定义为:
在这里插入图片描述
其中xj和yi是X和Y经过sigmoid运算后的第j和第i个通道图。其背后的动机是,像素属于位置类别 (i; j) 的概率是属于第i行和第j列的联合概率,因为水平和垂直位置类别是独立的。

4.总结

在这项工作中,我们开发了一个直接实例分割框架,称为 SOLO。我们的 SOLO 是端到端可训练的,可以以恒定的推理时间将原始输入图像直接映射到所需的实例掩模,从而消除了自下而上方法或边界框检测和 RoI 中的分组后处理的需要采用自上而下的方式进行操作。鉴于 SOLO 的简单性、灵活性和强大的性能,我们希望我们的 SOLO 能够成为许多实例级识别任务的基石。

你可能感兴趣的:(mdetection系列,人工智能,目标检测,计算机视觉,深度学习)