parent
df306793fd
commit
590cfa1ece
|
|
@ -39,6 +39,7 @@
|
|||

|
||||
|
||||
<center>图 4</center>
|
||||
|
||||
### 9.3.2 FCN网络结构?
|
||||
|
||||
FCN对图像进行像素级的分类,从而解决了语义级别的图像分割(semantic segmentation)问题。与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全联接层+softmax输出)不同,FCN可以接受任意尺寸的输入图像,采用反卷积层对最后一个卷积层的feature map进行上采样, 使它恢复到输入图像相同的尺寸,从而可以对每个像素都产生了一个预测, 同时保留了原始输入图像中的空间信息, 最后在上采样的特征图上进行逐像素分类。
|
||||
|
|
@ -103,12 +104,15 @@
|
|||

|
||||
|
||||
<center>一个分类网络</center>
|
||||
|
||||

|
||||
|
||||
<center>变为全卷积网络</center>
|
||||
|
||||

|
||||
|
||||
<center>End-to-end, pixels-to pixels网络</center>
|
||||
|
||||

|
||||
|
||||
|
||||
|
|
@ -135,7 +139,9 @@ Upsampling的操作可以看成是反卷积(deconvolutional),卷积运算的
|
|||

|
||||
|
||||
<center>上图中的反卷积,input是2×2, output是4×4。 Zero padding, non-unit strides, transposed。</center>
|
||||
|
||||

|
||||
|
||||
<center>上图中的反卷积,input feature map是3×3, 转化后是5×5, output是5×5</center>
|
||||
### 9.2.8 跳级(skip)结构
|
||||
|
||||
|
|
@ -143,6 +149,7 @@ Upsampling的操作可以看成是反卷积(deconvolutional),卷积运算的
|
|||
对CNN的结果做处理,得到了dense prediction,而作者在试验中发现,得到的分割结果比较粗糙,所以考虑加入更多前层的细节信息,也就是把倒数第几层的输出和最后的输出做一个fusion,实际上也就是加和:
|
||||
|
||||

|
||||
|
||||
  
|
||||
实验表明,这样的分割结果更细致更准确。在逐层fusion的过程中,做到第三行再往下,结果又会变差,所以作者做到这里就停了。
|
||||
|
||||
|
|
@ -169,28 +176,32 @@ Upsampling的操作可以看成是反卷积(deconvolutional),卷积运算的
|
|||
*对于不同尺寸的输入图像,各层数据的尺寸(height,width)相应变化,深度(channel)不变。*
|
||||
|
||||

|
||||
|
||||
  
|
||||
(1)全卷积层部分进行特征提取, 提取卷积层(3个蓝色层)的输出来作为预测21个类别的特征。
|
||||
|
||||
  
|
||||
    
|
||||
(2)图中虚线内是反卷积层的运算, 反卷积层(3个橙色层)可以把输入数据尺寸放大。和卷积层一样,升采样的具体参数经过训练确定。
|
||||
|
||||
    
|
||||
1) 以经典的AlexNet分类网络为初始化。最后两级是全连接(红色),参数弃去不用。
|
||||
|
||||

|
||||
|
||||
    
|
||||
2) 从特征小图()预测分割小图(),之后直接升采样为大图。
|
||||
|
||||

|
||||
|
||||
<center>反卷积(橙色)的步长为32,这个网络称为FCN-32s</center>
|
||||
|
||||
    
|
||||
3) 升采样分为两次完成(橙色×2), 在第二次升采样前,把第4个pooling层(绿色)的预测结果(蓝色)融合进来。使用跳级结构提升精确性。
|
||||
|
||||

|
||||
|
||||
<center>第二次反卷积步长为16,这个网络称为FCN-16s</center>
|
||||
|
||||
    
|
||||
4) 升采样分为三次完成(橙色×3), 进一步融合了第3个pooling层的预测结果。
|
||||
|
||||
|
|
|
|||
Loading…
Reference in New Issue