little mmodify

This commit is contained in:
不迷茫,不等待 2018-11-09 18:51:48 +08:00
parent 23a8c758f5
commit 1f7018cc98
3 changed files with 9 additions and 10 deletions

View File

@ -24,6 +24,9 @@ modify_log---->用来记录修改日志
1. 删除4.6.34.8.4
2. 修改4.3问题答案,添加部分论文链接
<----qjhuang-2018-11-9---->
1. 修改部分书写错误
其他---->待增加
2. 修改readme内容
3. 修改modify内容

View File

@ -421,7 +421,7 @@ figure 6' 17/8之间的特征图尺寸缩小
![](./img/ch4/image47.png)
&nbsp;&nbsp;&nbsp;&nbsp;
Inception v4 中的Inception模块分别为Inception A Inception B Inception C
Inception v4 中的Inception模块分别为Inception A Inception B Inception C
![](./img/ch4/image48.png)
@ -466,8 +466,6 @@ Inception-ResNet-v2中的reduction模块分别为reduction A reduction B
![](./img/ch4/image63.png)
# 4.8 ResNet及其变体
&nbsp;&nbsp;&nbsp;&nbsp;
http://www.sohu.com/a/157818653_390227
&nbsp;&nbsp;&nbsp;&nbsp;
自从AlexNet在LSVRC2012分类比赛中取得胜利之后深度残差网络Deep Residual Network可以说成为过去几年中在计算机视觉、深度学习社区领域中最具突破性的成果了。ResNet可以实现高达数百甚至数千个层的训练且仍能获得超赞的性能。

View File

@ -219,9 +219,7 @@ learning rate0.001。
&emsp;&emsp;
(2) 左边的网络是收缩路径使用卷积和maxpooling。
&emsp;&emsp;
(3) 右边的网络是扩张路径:使用上采样产生的特征图与左侧收缩路径对应层产生的特征图进行concatenate操作。pooling层会丢失图像信息和降低图像分辨率且是不可逆的操作对图像分割任务有一些影响对图像分类任务的影响不大为什么要做上采样
&emsp;&emsp;
因为上采样可以补足一些图片的信息,但是信息补充的肯定不完全,所以还需要与左边的分辨率比较高的图片相连接起来(直接复制过来再裁剪到与上采样图片一样大小),这就相当于在高分辨率和更抽象特征当中做一个折衷,因为随着卷积次数增多,提取的特征也更加有效,更加抽象,上采样的图片是经历多次卷积后的图片,肯定是比较高效和抽象的图片,然后把它与左边不怎么抽象但更高分辨率的特征图片进行连接)。
(3) 右边的网络是扩张路径:使用上采样产生的特征图与左侧收缩路径对应层产生的特征图进行concatenate操作。pooling层会丢失图像信息和降低图像分辨率且是不可逆的操作对图像分割任务有一些影响对图像分类任务的影响不大为什么要做上采样因为上采样可以补足一些图片的信息但是信息补充的肯定不完全所以还需要与左边的分辨率比较高的图片相连接起来直接复制过来再裁剪到与上采样图片一样大小这就相当于在高分辨率和更抽象特征当中做一个折衷因为随着卷积次数增多提取的特征也更加有效更加抽象上采样的图片是经历多次卷积后的图片肯定是比较高效和抽象的图片然后把它与左边不怎么抽象但更高分辨率的特征图片进行连接
&emsp;&emsp;
(4) 最后再经过两次反卷积操作生成特征图再用两个1X1的卷积做分类得到最后的两张heatmap,例如第一张表示的是第一类的得分第二张表示第二类的得分heatmap,然后作为softmax函数的输入算出概率比较大的softmax类选择它作为输入给交叉熵进行反向传播训练。