little mmodify
This commit is contained in:
parent
23a8c758f5
commit
1f7018cc98
|
|
@ -24,6 +24,9 @@ modify_log---->用来记录修改日志
|
|||
1. 删除4.6.3,4.8.4
|
||||
2. 修改4.3问题答案,添加部分论文链接
|
||||
|
||||
<----qjhuang-2018-11-9---->
|
||||
1. 修改部分书写错误
|
||||
|
||||
其他---->待增加
|
||||
2. 修改readme内容
|
||||
3. 修改modify内容
|
||||
|
|
|
|||
|
|
@ -421,7 +421,7 @@ figure 6' 17/8之间的特征图尺寸缩小
|
|||

|
||||
|
||||
|
||||
Inception v4 中的Inception模块(分别为Inception A Inception B Inception C
|
||||
Inception v4 中的Inception模块(分别为Inception A Inception B Inception C)
|
||||
|
||||

|
||||
|
||||
|
|
@ -466,8 +466,6 @@ Inception-ResNet-v2中的reduction模块(分别为reduction A reduction B)
|
|||

|
||||
|
||||
# 4.8 ResNet及其变体
|
||||
|
||||
http://www.sohu.com/a/157818653_390227
|
||||
|
||||
|
||||
自从AlexNet在LSVRC2012分类比赛中取得胜利之后,深度残差网络(Deep Residual Network)可以说成为过去几年中,在计算机视觉、深度学习社区领域中最具突破性的成果了。ResNet可以实现高达数百,甚至数千个层的训练,且仍能获得超赞的性能。
|
||||
|
|
|
|||
|
|
@ -219,9 +219,7 @@ learning rate:0.001。
|
|||
  
|
||||
(2) 左边的网络是收缩路径:使用卷积和maxpooling。
|
||||
  
|
||||
(3) 右边的网络是扩张路径:使用上采样产生的特征图与左侧收缩路径对应层产生的特征图进行concatenate操作。(pooling层会丢失图像信息和降低图像分辨率且是不可逆的操作,对图像分割任务有一些影响,对图像分类任务的影响不大,为什么要做上采样?
|
||||
  
|
||||
因为上采样可以补足一些图片的信息,但是信息补充的肯定不完全,所以还需要与左边的分辨率比较高的图片相连接起来(直接复制过来再裁剪到与上采样图片一样大小),这就相当于在高分辨率和更抽象特征当中做一个折衷,因为随着卷积次数增多,提取的特征也更加有效,更加抽象,上采样的图片是经历多次卷积后的图片,肯定是比较高效和抽象的图片,然后把它与左边不怎么抽象但更高分辨率的特征图片进行连接)。
|
||||
(3) 右边的网络是扩张路径:使用上采样产生的特征图与左侧收缩路径对应层产生的特征图进行concatenate操作。(pooling层会丢失图像信息和降低图像分辨率且是不可逆的操作,对图像分割任务有一些影响,对图像分类任务的影响不大,为什么要做上采样?因为上采样可以补足一些图片的信息,但是信息补充的肯定不完全,所以还需要与左边的分辨率比较高的图片相连接起来(直接复制过来再裁剪到与上采样图片一样大小),这就相当于在高分辨率和更抽象特征当中做一个折衷,因为随着卷积次数增多,提取的特征也更加有效,更加抽象,上采样的图片是经历多次卷积后的图片,肯定是比较高效和抽象的图片,然后把它与左边不怎么抽象但更高分辨率的特征图片进行连接)。
|
||||
  
|
||||
(4) 最后再经过两次反卷积操作,生成特征图,再用两个1X1的卷积做分类得到最后的两张heatmap,例如第一张表示的是第一类的得分,第二张表示第二类的得分heatmap,然后作为softmax函数的输入,算出概率比较大的softmax类,选择它作为输入给交叉熵进行反向传播训练。
|
||||
|
||||
|
|
|
|||
Loading…
Reference in New Issue