little mmodify

This commit is contained in:
不迷茫,不等待 2018-11-09 18:57:43 +08:00
parent 1f7018cc98
commit aafb0ed068
2 changed files with 9 additions and 6 deletions

View File

@ -31,6 +31,9 @@ modify_log---->用来记录修改日志
<----qjhuang-2018-11-7---->
1. 修改9.5答案部分说法(可讨论)
<----qjhuang-2018-11-9---->
1. 修改部分答案公式,链接
其他---->待增加
2. 修改readme内容
3. 修改modify内容

View File

@ -578,7 +578,8 @@ Why K个mask通过对每个 Class 对应一个Mask可以有效避免类间竞
## **9.9 CNN在基于弱监督学习的图像分割中的应用**
&emsp;&emsp;
https://zhuanlan.zhihu.com/p/23811946
答案来源:[CNN在基于弱监督学习的图像分割中的应用](https://zhuanlan.zhihu.com/p/23811946)
&emsp;&emsp;
最近基于深度学习的图像分割技术一般依赖于卷积神经网络CNN的训练训练过程中需要非常大量的标记图像即一般要求训练图像中都要有精确的分割结果。
&emsp;&emsp;
@ -586,11 +587,11 @@ https://zhuanlan.zhihu.com/p/23811946
&emsp;&emsp;
如果学习算法能通过对一些初略标记过的数据集的学习就能完成好的分割结果,那么对训练数据的标记过程就很简单,这可以大大降低花在训练数据标记上的时间。这些初略标记可以是:
&emsp;&emsp;
1 只给出一张图像里面包含哪些物体,
1只给出一张图像里面包含哪些物体,
&emsp;&emsp;
2 给出某个物体的边界框,
2给出某个物体的边界框,
&emsp;&emsp;
3 对图像中的物体区域做部分像素的标记例如画一些线条、涂鸦等scribbles)。
3对图像中的物体区域做部分像素的标记例如画一些线条、涂鸦等scribbles)。
**9.9.1 Scribble标记**
@ -608,14 +609,12 @@ Graph Cut的能量函数为
$$
\sum_{i}\psi _i\left(y_i|X,S\right)+\sum_{i,j}\psi_{ij}\left(y_i,y_j,X\right)
$$
&emsp;&emsp;
在这个graph中每个super-pixel是graph中的一个节点相接壤的super-pixel之间有一条连接的边。这个能量函数中的一元项包括两种情况一个是来自于scribble的一个是来自CNN对该super-pixel预测的概率。整个最优化过程实际上是求graph cut能量函数和CNN参数联合最优值的过程
$$
\sum_{i}\psi _i^{scr}\left(y_i|X,S\right)+\sum _i-logP\left(y_i| X,\theta\right)+\sum_{i,j}\psi _{ij}\left(y_i,y_j|X\right)
$$
&emsp;&emsp;
上式的最优化是通过交替求$Y$和$\theta$的最优值来实现的。文章中发现通过三次迭代就能得到比较好的结果。
<center><img src="./img/ch9/figure_9.9_3.png"></center>
@ -630,6 +629,7 @@ UC Berkeley的Deepak Pathak使用了一个具有图像级别标记的训练数
&emsp;&emsp;
该方法把训练过程看作是有线性限制条件的最优化过程:
$$
\underset{\theta ,P}{minimize}\qquad D(P(X)||Q(X|\theta ))\\