update: weaakly Supervised Segmentation

This commit is contained in:
ming71 2019-09-21 15:33:15 +08:00
parent 7e1c17dc58
commit ea82effeb8
1 changed files with 37 additions and 1 deletions

View File

@ -714,7 +714,6 @@ $$
  
Wisconsin-Madison大学的Jia Xu提出了一个统一的框架来处理各种不同类型的弱标记图像级别的标记、bounding box和部分像素标记如scribbles。该方法把所有的训练图像分成共计$n$个super-pixel对每个super-pixel提取一个$d$维特征向量。因为不知道每个super-pixel所属的类别相当于无监督学习因此该方法对所有的super-pixel做聚类使用的是最大间隔聚类方法(max-margin clustering, MMC),该过程的最优化目标函数是:
$$
\underset{W,H}{min} \qquad \frac{1}{2}tr\left ( W^TW \right ) + \lambda\sum_{p=1}^{n}\sum_{c=1}^{C}\xi \left ( w_c;x_p;h_p^c \right)
$$
@ -730,6 +729,43 @@ $$
  
小结在弱标记的数据集上训练图像分割算法可以减少对大量全标记数据的依赖在大多数应用中会更加贴合实际情况。弱标记可以是图像级别的标记、边框和部分像素的标记等。训练的方法一般看做是限制条件下的最优化方法。另外EM算法可以用于CNN参数和像素类别的联合求优。
### 9.10.5 弱监督分割最新进展(贡献者:明奇-北京理工大学)
* **bbox监督**
1. Learning to Segment via Cut-and-PasteECCV 2018
利用GAN对抗学习的思想在cut-paste思想指导下利用bbox弱监督进行实例分割。
![](./img/ch9/9.10.5-1.png)
采用对抗学习的思想网络主体分为两大部分mask生成器和合成图像判别器。具体过程为1在图像上截取gt经过特征提取后预测一个bbox内gt的mask2在原图上随机cut一个背景图像将bbox内按照生成的mask提取出物体分割结果然后paste到原图裁剪的背景上去3合成的图像经过判别器进行真假判断。
通过生成器生成更好mask来使得判别器更难判别在对抗学习中提升两者的性能逐渐获得更好的结果 .
2. Simple Does It: Weakly Supervised Instance and Semantic SegmentationCVPR2017
本文做的是bbox弱监督语义/实例分割任务,能达到全监督分割效果(DeepLabv1)的95%。主要工作为讨论了使用弱监督语义标签进行迭代训练的方法以及其限制和不足之处证明了通过类似GrabCut的算法能通过bbox生成分割训练标签方法的可行性可以避免像上面的迭代方法重新调整网络训练策略在VOC数据集上逼近监督学习的分割任务效果。
作者的启发是将bbox level的mask送入网络训练后得到分割mask的比输入的bbox mask要好这是很好的insight。因此启发的操作是将bbox level标注作为初始mask输入优化每次得到的标注作为gt进行下一轮的迭代从而不断获得更好的效果。效果图如下
![](./img/ch9/9.10.5-3.png)
在此基础上再加上优化的GrabCut+算法以及部分区域的筛选以及BSDS500的边界预测信息整合到一起能够达到很好的弱监督迭代分割效果。
* **分类监督**
1. Weakly Supervised Learning of Instance Segmentation with Inter-pixel Relations(CVPR2019)
使用分类标注作为弱监督信息在CAM提取到特征的基础上进一步设计IRNet学习额外的特征约束从而到达更好的弱监督实例分割效果。为了解决CAM应用到实例分割的上述局限设计IRNet。其组成为两部分1不分类别的实例响应图 2pairwise semantic affinitie。其中通过不分类别的实例响应图和CAM结合约束后得到instance-wise CAMS另一个分支预先预测物体的边界然后得到pairwise semantic affinitie关于这个的论文参考Related Work的对应部分有相应的方法暂时不深究进行融合和处理得到最终的分割。整体流程如下
![](./img/ch9/9.10.5-2.png)
2. Weakly Supervised Instance Segmentation using Class Peak ResponseCVPR2018
本文使用图像级的类别标注监督信息通过探索类别响应峰值使分类网络能够很好地提取实例分割mask。本工作是使用图像级标注进行弱监督实例分割的首个工作。
在分类监督信息之下CNN网络会产生一个类别响应图每个位置是类别置信度分数。其局部极大值往往具有实例很强视觉语义线索。首先将类别峰值响应图的信息进行整合然后反向传播将其映射到物体实例信息量较大的区域如边界。上述从类别极值响应图产生的映射图称为Peak Response Maps (PRMs),该图提供了实例物体的详细表征,可以很好地用作分割监督信息。
具体流程如图:
![](./img/ch9/9.10.5-4.png)
首先将图片经过正常的分类网络训练其中在类别预测响应图上提取出局部响应极值点进行增强卷积后预测出PRM。然后结合多种信息进行推断生成mask。
3. Weakly Supervised Semantic Segmentation Using Superpixel Pooling NetworkAAAI 2017
本文介绍通过类别标注的标签实现弱监督语义分割的方法。该方法在语义分割mask生成和使用生成mask学习分割生成网络之间反复交替。要实现这种交替迭代学习关键点就是如何利用类别标注得到较准确的初始分割。为了解决这一问题,提出了Superpixel Pooling Network (SPN),将输入图像的超像素分割结果作为低阶结构的表征,辅助语义分割的推断。
![](./img/ch9/9.10.5-5.png)
首先是SPN生成初始mask然后用另一个网络DecoupledNet来学习每个像素的mask标注。其中该分割网络将语义分割任务解耦为分类和分割两个子任务并且能够从类别标注中学习形状先验知识用于辅助分割。
## 9.11 DenseNet贡献者黄钦建华南理工大学