commit
69dd867ec4
497
README.md
497
README.md
|
|
@ -1,92 +1,40 @@
|
||||||
##############################################################
|
# 1. 版权声明
|
||||||
请尊重作者的知识产权,版权所有,翻版必究。 2018.6.27 Tan
|
请尊重作者的知识产权,版权所有,翻版必究。
|
||||||
## scutjy2015@163.com (唯一官方邮箱)
|
|
||||||
## `注意;现出现不法分子冒充发起人,请广大伙伴儿知悉!`
|
|
||||||
##############################################################
|
|
||||||
|
|
||||||
## 接下来,将提供MD版本,大家一起编辑完善,敬请期待!
|
请大家一起维护自己的劳动成果,进行监督。
|
||||||
## 希望踊跃提建议,补充修改内容!
|
|
||||||
## 希望踊跃提建议,在已提交MD版本补充修改内容!
|
|
||||||
为了让内容更充实完善,集思广益,请在修改MD文件的同时(或直接留言)备注自己的姓名-单位(大佬-斯坦福大学),一经采纳,会在原文中显示贡献者的信息,如有收益,会进一步分红,谢谢!
|
|
||||||
例:
|
|
||||||
### 3.3.2 如何寻找超参数的最优值?(贡献者:大佬-斯坦福大学)
|
|
||||||
|
|
||||||
在使用机器学习算法时,总有一些难搞的超参数。例如权重衰减大小,高斯核宽度等等。算法不会设置这些参数,而是需要你去设置它们的值。设置的值对结果产生较大影响。常见设置超参数的做法有:
|
2018.6.27 Tan
|
||||||
|
|
||||||
1. 猜测和检查:根据经验或直觉,选择参数,一直迭代。
|
# 2. 概述
|
||||||
2. 网格搜索:让计算机尝试在一定范围内均匀分布的一组值。
|
|
||||||
3. 随机搜索:让计算机随机挑选一组值。
|
|
||||||
4. 贝叶斯优化:使用贝叶斯优化超参数,会遇到贝叶斯优化算法本身就需要很多的参数的困难。
|
|
||||||
5. 在良好初始猜测的前提下进行局部优化:这就是 MITIE 的方法,它使用 BOBYQA 算法,并有一个精心选择的起始点。由于 BOBYQA 只寻找最近的局部最优解,所以这个方法是否成功很大程度上取决于是否有一个好的起点。在 MITIE 的情况下,我们知道一个好的起点,但这不是一个普遍的解决方案,因为通常你不会知道好的起点在哪里。从好的方面来说,这种方法非常适合寻找局部最优解。稍后我会再讨论这一点。
|
|
||||||
6. 最新提出的 LIPO 的全局优化方法。这个方法没有参数,而且经验证比随机搜索方法好。
|
|
||||||
|
|
||||||
### 已提交MD版本章节:请查看MarkDown(排名不分先后)
|
本项目是大家对AI的相关知识进行整合,集思广益, 以便形成 内容充实,覆盖全面的文集。
|
||||||
待定:表示该章节还未匹配到合适的负责人(统筹该章节的内容修改、审核、原创性陈述)
|
|
||||||
可加:表示该章节,如果有其他合适的,可以开放权限加到负责人身份
|
|
||||||
|
|
||||||
|
# 3. 目录
|
||||||
|
|
||||||
第一章 数学基础 负责人:哈工大博士-袁笛
|
**第一章 数学基础 1**
|
||||||
第二章 机器学习基础 负责人:稿定科技计算机视觉工程师-刘鹏;(待定)
|
|
||||||
第三章 深度学习基础 负责人:同济大学研究生-乔成磊;稿定科技计算机视觉工程师-刘鹏;(可加)
|
|
||||||
第四章 经典网络 负责人:华南理工研究生-黄钦建;(可加)
|
|
||||||
第五章 卷积神经网络CNN 负责人:杜克大学硕士、data scientist李骁丹;重庆大学研究生-刘畅;铪星创新科技联合创始人-杨文英;(可加)
|
|
||||||
第六章 循环神经网络RNN 负责人:杜克大学硕士、data scientist李骁丹;(可加)
|
|
||||||
第七章 生成对抗网络GAN 负责人:牛津大学博士泽华;中科院硕士、爱奇艺算法工程师-郭晓锋;
|
|
||||||
第八章 目标检测 负责人:稿定科技计算机视觉工程师-刘鹏;哈工大博士袁笛;上海大学研究生-陈方杰
|
|
||||||
第九章 图像分割 负责人:华南理工研究生-黄钦建;电子科大研究生-孙洪卫、张越;中国农业科学院-杨国峰
|
|
||||||
第十章 强化学习 负责人:复旦大学研究生明杰,杭州启飞CTO-徐武民;(可加)
|
|
||||||
第十一章 迁移学习 负责人:中科院计算技术研究所博士-王晋东;(可加)
|
|
||||||
第十二章 网络搭建及训练 负责人:(待定)
|
|
||||||
第十三章 优化算法 负责人:杭州启飞CTO-徐武民;(可加)
|
|
||||||
第十四章 超参数调整 负责人:中兴通讯有限公司算法工程师-王超锋;(可加)
|
|
||||||
第十五章 GPU和框架选型 负责人:澳洲monash大学Research Scientist/Telstra(澳洲电信)Data Scientist-钟申俊博士;
|
|
||||||
---------------------平安科技算法工程师-崔永明、(可加)
|
|
||||||
第十六章 自然语言处理NLP 负责人:电子科技大学博士-盛泳潘;深圳乌灵图明科技有限公司CTO-何建宏;DaoCloud研发工程师-张善干;
|
|
||||||
---------------------澳洲monash大学Research Scientist/Telstra(澳洲电信)Data Scientist-钟申俊博士;
|
|
||||||
---------------------华南理工大学&UCI博士-黄振华
|
|
||||||
第十七章 移动端框架部署(新增) 负责人:川大硕士-顺丰科技-谈继勇;贵州大学硕士-三星-张达峰(可加)
|
|
||||||
|
|
||||||
|
1.1 标量、向量、张量之间的联系 1
|
||||||
|
1.2 张量与矩阵的区别? 1
|
||||||
|
1.3 矩阵和向量相乘结果 1
|
||||||
|
1.4 向量和矩阵的范数归纳 1
|
||||||
|
1.5 如何判断一个矩阵为正定? 2
|
||||||
|
1.6 导数偏导计算 3
|
||||||
|
1.7 导数和偏导数有什么区别? 3
|
||||||
|
1.8 特征值分解与特征向量 3
|
||||||
|
1.9 奇异值与特征值有什么关系? 4
|
||||||
|
1.10 机器学习为什么要使用概率? 4
|
||||||
|
1.11 变量与随机变量有什么区别? 4
|
||||||
|
1.12 常见概率分布? 5
|
||||||
|
1.13 举例理解条件概率 9
|
||||||
|
1.14 联合概率与边缘概率联系区别? 10
|
||||||
|
1.15 条件概率的链式法则 10
|
||||||
|
1.16 独立性和条件独立性 11
|
||||||
|
1.17 期望、方差、协方差、相关系数总结 11
|
||||||
|
|
||||||
|
**第二章 机器学习基础 14**
|
||||||
|
|
||||||
寻求有愿意继续完善的朋友、编辑、写手;如有意合作,完善出书(成为共同作者)
|
|
||||||
所有提交内容的贡献者,将会在文中体现贡献者个人信息(大佬-西湖大学)
|
|
||||||
|
|
||||||
##############################################################
|
|
||||||
|
|
||||||
请联系scutjy2015@163.com (唯一官方邮箱); 加微信Tan: tan_weixin88
|
|
||||||
|
|
||||||
### 进群先在MD版本增加、改善、提交内容后,更容易进群。
|
|
||||||
|
|
||||||
进群请加微信 委托人1:HQJ199508212176 委托人2:Xuwumin1203 委托人3:tianyuzy
|
|
||||||
|
|
||||||
微信交流群:《深度学习500问》交流群
|
|
||||||

|
|
||||||
2018.10.23 Tan
|
|
||||||
|
|
||||||
##############################################################
|
|
||||||
|
|
||||||
# 目录 2
|
|
||||||
## 第一章 数学基础 1
|
|
||||||
1.1标量、向量、张量之间的联系 1
|
|
||||||
1.2张量与矩阵的区别? 1
|
|
||||||
1.3矩阵和向量相乘结果 1
|
|
||||||
1.4向量和矩阵的范数归纳 1
|
|
||||||
1.5如何判断一个矩阵为正定? 2
|
|
||||||
1.6导数偏导计算 3
|
|
||||||
1.7导数和偏导数有什么区别? 3
|
|
||||||
1.8特征值分解与特征向量 3
|
|
||||||
1.9奇异值与特征值有什么关系? 4
|
|
||||||
1.10机器学习为什么要使用概率? 4
|
|
||||||
1.11变量与随机变量有什么区别? 4
|
|
||||||
1.12常见概率分布? 5
|
|
||||||
1.13举例理解条件概率 9
|
|
||||||
1.14联合概率与边缘概率联系区别? 10
|
|
||||||
1.15条件概率的链式法则 10
|
|
||||||
1.16独立性和条件独立性 11
|
|
||||||
1.17期望、方差、协方差、相关系数总结 11
|
|
||||||
## 第二章 机器学习基础 14
|
|
||||||
2.1 各种常见算法图示 14
|
2.1 各种常见算法图示 14
|
||||||
2.2监督学习、非监督学习、半监督学习、弱监督学习? 15
|
2.2 监督学习、非监督学习、半监督学习、弱监督学习? 15
|
||||||
2.3 监督学习有哪些步骤 16
|
2.3 监督学习有哪些步骤 16
|
||||||
2.4 多实例学习? 17
|
2.4 多实例学习? 17
|
||||||
2.5 分类网络和回归的区别? 17
|
2.5 分类网络和回归的区别? 17
|
||||||
|
|
@ -95,7 +43,7 @@
|
||||||
2.8 正确率能很好的评估分类算法吗? 20
|
2.8 正确率能很好的评估分类算法吗? 20
|
||||||
2.9 分类算法的评估方法? 20
|
2.9 分类算法的评估方法? 20
|
||||||
2.10 什么样的分类器是最好的? 22
|
2.10 什么样的分类器是最好的? 22
|
||||||
2.11大数据与深度学习的关系 22
|
2.11 大数据与深度学习的关系 22
|
||||||
2.12 理解局部最优与全局最优 23
|
2.12 理解局部最优与全局最优 23
|
||||||
2.13 理解逻辑回归 24
|
2.13 理解逻辑回归 24
|
||||||
2.14 逻辑回归与朴素贝叶斯有什么区别? 24
|
2.14 逻辑回归与朴素贝叶斯有什么区别? 24
|
||||||
|
|
@ -103,7 +51,7 @@
|
||||||
2.16 代价函数作用原理 25
|
2.16 代价函数作用原理 25
|
||||||
2.17 为什么代价函数要非负? 26
|
2.17 为什么代价函数要非负? 26
|
||||||
2.18 常见代价函数? 26
|
2.18 常见代价函数? 26
|
||||||
2.19为什么用交叉熵代替二次代价函数 28
|
2.19 为什么用交叉熵代替二次代价函数 28
|
||||||
2.20 什么是损失函数? 28
|
2.20 什么是损失函数? 28
|
||||||
2.21 常见的损失函数 28
|
2.21 常见的损失函数 28
|
||||||
2.22 逻辑回归为什么使用对数损失函数? 30
|
2.22 逻辑回归为什么使用对数损失函数? 30
|
||||||
|
|
@ -115,7 +63,7 @@
|
||||||
2.24 如何对梯度下降法进行调优? 35
|
2.24 如何对梯度下降法进行调优? 35
|
||||||
2.25 随机梯度和批量梯度区别? 35
|
2.25 随机梯度和批量梯度区别? 35
|
||||||
2.26 各种梯度下降法性能比较 37
|
2.26 各种梯度下降法性能比较 37
|
||||||
2.27计算图的导数计算图解? 37
|
2.27 计算图的导数计算图解? 37
|
||||||
2.28 线性判别分析(LDA)思想总结 39
|
2.28 线性判别分析(LDA)思想总结 39
|
||||||
2.29 图解LDA核心思想 39
|
2.29 图解LDA核心思想 39
|
||||||
2.30 二类LDA算法原理? 40
|
2.30 二类LDA算法原理? 40
|
||||||
|
|
@ -129,7 +77,7 @@
|
||||||
2.37 PCA算法主要优缺点 45
|
2.37 PCA算法主要优缺点 45
|
||||||
2.38 降维的必要性及目的 45
|
2.38 降维的必要性及目的 45
|
||||||
2.39 KPCA与PCA的区别? 46
|
2.39 KPCA与PCA的区别? 46
|
||||||
2.40模型评估 47
|
2.40 模型评估 47
|
||||||
2.40.1模型评估常用方法? 47
|
2.40.1模型评估常用方法? 47
|
||||||
2.40.2 经验误差与泛化误差 47
|
2.40.2 经验误差与泛化误差 47
|
||||||
2.40.3 图解欠拟合、过拟合 48
|
2.40.3 图解欠拟合、过拟合 48
|
||||||
|
|
@ -140,18 +88,18 @@
|
||||||
2.40.8 错误率及精度 51
|
2.40.8 错误率及精度 51
|
||||||
2.40.9 查准率与查全率 51
|
2.40.9 查准率与查全率 51
|
||||||
2.40.10 ROC与AUC 52
|
2.40.10 ROC与AUC 52
|
||||||
2.40.11如何画ROC曲线? 53
|
2.40.11 如何画ROC曲线? 53
|
||||||
2.40.12如何计算TPR,FPR? 54
|
2.40.12 如何计算TPR,FPR? 54
|
||||||
2.40.13如何计算Auc? 56
|
2.40.13 如何计算Auc? 56
|
||||||
2.40.14为什么使用Roc和Auc评价分类器? 56
|
2.40.14 为什么使用Roc和Auc评价分类器? 56
|
||||||
2.40.15 直观理解AUC 56
|
2.40.15 直观理解AUC 56
|
||||||
2.40.16 代价敏感错误率与代价曲线 57
|
2.40.16 代价敏感错误率与代价曲线 57
|
||||||
2.40.17 模型有哪些比较检验方法 59
|
2.40.17 模型有哪些比较检验方法 59
|
||||||
2.40.18 偏差与方差 59
|
2.40.18 偏差与方差 59
|
||||||
2.40.19为什么使用标准差? 60
|
2.40.19 为什么使用标准差? 60
|
||||||
2.40.20 点估计思想 61
|
2.40.20 点估计思想 61
|
||||||
2.40.21 点估计优良性原则? 61
|
2.40.21 点估计优良性原则? 61
|
||||||
2.40.22点估计、区间估计、中心极限定理之间的联系? 62
|
2.40.22 点估计、区间估计、中心极限定理之间的联系? 62
|
||||||
2.40.23 类别不平衡产生原因? 62
|
2.40.23 类别不平衡产生原因? 62
|
||||||
2.40.24 常见的类别不平衡问题解决方法 62
|
2.40.24 常见的类别不平衡问题解决方法 62
|
||||||
2.41 决策树 64
|
2.41 决策树 64
|
||||||
|
|
@ -159,7 +107,7 @@
|
||||||
2.41.2 决策树的三要素? 64
|
2.41.2 决策树的三要素? 64
|
||||||
2.41.3 决策树学习基本算法 65
|
2.41.3 决策树学习基本算法 65
|
||||||
2.41.4 决策树算法优缺点 65
|
2.41.4 决策树算法优缺点 65
|
||||||
2.40.5熵的概念以及理解 66
|
2.40.5 熵的概念以及理解 66
|
||||||
2.40.6 信息增益的理解 66
|
2.40.6 信息增益的理解 66
|
||||||
2.40.7 剪枝处理的作用及策略? 67
|
2.40.7 剪枝处理的作用及策略? 67
|
||||||
2.41 支持向量机 67
|
2.41 支持向量机 67
|
||||||
|
|
@ -181,69 +129,71 @@
|
||||||
2.26.7 什么是贝叶斯最优错误率 76
|
2.26.7 什么是贝叶斯最优错误率 76
|
||||||
2.27 EM算法解决问题及实现流程 76
|
2.27 EM算法解决问题及实现流程 76
|
||||||
2.28 为什么会产生维数灾难? 78
|
2.28 为什么会产生维数灾难? 78
|
||||||
2.29怎样避免维数灾难 82
|
2.29 怎样避免维数灾难 82
|
||||||
2.30聚类和降维有什么区别与联系? 82
|
2.30 聚类和降维有什么区别与联系? 82
|
||||||
2.31 GBDT和随机森林的区别 83
|
2.31 GBDT和随机森林的区别 83
|
||||||
2.32 四种聚类方法之比较 84
|
2.32 四种聚类方法之比较 84
|
||||||
## 第三章 深度学习基础 88
|
|
||||||
3.1基本概念 88
|
**第三章 深度学习基础 88**
|
||||||
3.1.1神经网络组成? 88
|
|
||||||
3.1.2神经网络有哪些常用模型结构? 90
|
3.1 基本概念 88
|
||||||
3.1.3如何选择深度学习开发平台? 92
|
3.1.1 神经网络组成? 88
|
||||||
3.1.4为什么使用深层表示 92
|
3.1.2 神经网络有哪些常用模型结构? 90
|
||||||
3.1.5为什么深层神经网络难以训练? 93
|
3.1.3 如何选择深度学习开发平台? 92
|
||||||
3.1.6深度学习和机器学习有什么不同 94
|
3.1.4 为什么使用深层表示 92
|
||||||
|
3.1.5 为什么深层神经网络难以训练? 93
|
||||||
|
3.1.6 深度学习和机器学习有什么不同 94
|
||||||
3.2 网络操作与计算 95
|
3.2 网络操作与计算 95
|
||||||
3.2.1前向传播与反向传播? 95
|
3.2.1 前向传播与反向传播? 95
|
||||||
3.2.2如何计算神经网络的输出? 97
|
3.2.2 如何计算神经网络的输出? 97
|
||||||
3.2.3如何计算卷积神经网络输出值? 98
|
3.2.3 如何计算卷积神经网络输出值? 98
|
||||||
3.2.4如何计算Pooling层输出值输出值? 101
|
3.2.4 如何计算Pooling层输出值输出值? 101
|
||||||
3.2.5实例理解反向传播 102
|
3.2.5 实例理解反向传播 102
|
||||||
3.3超参数 105
|
3.3 超参数 105
|
||||||
3.3.1什么是超参数? 105
|
3.3.1 什么是超参数? 105
|
||||||
3.3.2如何寻找超参数的最优值? 105
|
3.3.2 如何寻找超参数的最优值? 105
|
||||||
3.3.3超参数搜索一般过程? 106
|
3.3.3 超参数搜索一般过程? 106
|
||||||
3.4激活函数 106
|
3.4 激活函数 106
|
||||||
3.4.1为什么需要非线性激活函数? 106
|
3.4.1 为什么需要非线性激活函数? 106
|
||||||
3.4.2常见的激活函数及图像 107
|
3.4.2 常见的激活函数及图像 107
|
||||||
3.4.3 常见激活函数的导数计算? 109
|
3.4.3 常见激活函数的导数计算? 109
|
||||||
3.4.4激活函数有哪些性质? 110
|
3.4.4 激活函数有哪些性质? 110
|
||||||
3.4.5 如何选择激活函数? 110
|
3.4.5 如何选择激活函数? 110
|
||||||
3.4.6使用ReLu激活函数的优点? 111
|
3.4.6 使用ReLu激活函数的优点? 111
|
||||||
3.4.7什么时候可以用线性激活函数? 111
|
3.4.7 什么时候可以用线性激活函数? 111
|
||||||
3.4.8怎样理解Relu(<0时)是非线性激活函数? 111
|
3.4.8 怎样理解Relu(<0时)是非线性激活函数? 111
|
||||||
3.4.9 Softmax函数如何应用于多分类? 112
|
3.4.9 Softmax函数如何应用于多分类? 112
|
||||||
3.5 Batch_Size 113
|
3.5 Batch_Size 113
|
||||||
3.5.1为什么需要Batch_Size? 113
|
3.5.1 为什么需要Batch_Size? 113
|
||||||
3.5.2 Batch_Size值的选择 114
|
3.5.2 Batch_Size值的选择 114
|
||||||
3.5.3在合理范围内,增大 Batch_Size 有何好处? 114
|
3.5.3 在合理范围内,增大 Batch_Size 有何好处? 114
|
||||||
3.5.4盲目增大 Batch_Size 有何坏处? 114
|
3.5.4 盲目增大 Batch_Size 有何坏处? 114
|
||||||
3.5.5调节 Batch_Size 对训练效果影响到底如何? 114
|
3.5.5 调节 Batch_Size 对训练效果影响到底如何? 114
|
||||||
3.6 归一化 115
|
3.6 归一化 115
|
||||||
3.6.1归一化含义? 115
|
3.6.1 归一化含义? 115
|
||||||
3.6.2为什么要归一化 115
|
3.6.2 为什么要归一化 115
|
||||||
3.6.3为什么归一化能提高求解最优解速度? 115
|
3.6.3 为什么归一化能提高求解最优解速度? 115
|
||||||
3.6.4 3D图解未归一化 116
|
3.6.4 3D图解未归一化 116
|
||||||
3.6.5归一化有哪些类型? 117
|
3.6.5 归一化有哪些类型? 117
|
||||||
3.6.6局部响应归一化作用 117
|
3.6.6 局部响应归一化作用 117
|
||||||
3.6.7理解局部响应归一化公式 117
|
3.6.7 理解局部响应归一化公式 117
|
||||||
3.6.8什么是批归一化(Batch Normalization) 118
|
3.6.8 什么是批归一化(Batch Normalization) 118
|
||||||
3.6.9批归一化(BN)算法的优点 119
|
3.6.9 批归一化(BN)算法的优点 119
|
||||||
3.6.10批归一化(BN)算法流程 119
|
3.6.10 批归一化(BN)算法流程 119
|
||||||
3.6.11批归一化和群组归一化 120
|
3.6.11 批归一化和群组归一化 120
|
||||||
3.6.12 Weight Normalization和Batch Normalization 120
|
3.6.12 Weight Normalization和Batch Normalization 120
|
||||||
3.7 预训练与微调(fine tuning) 121
|
3.7 预训练与微调(fine tuning) 121
|
||||||
3.7.1为什么无监督预训练可以帮助深度学习? 121
|
3.7.1 为什么无监督预训练可以帮助深度学习? 121
|
||||||
3.7.2什么是模型微调fine tuning 121
|
3.7.2 什么是模型微调fine tuning 121
|
||||||
3.7.3微调时候网络参数是否更新? 122
|
3.7.3 微调时候网络参数是否更新? 122
|
||||||
3.7.4 fine-tuning模型的三种状态 122
|
3.7.4 fine-tuning模型的三种状态 122
|
||||||
3.8权重偏差初始化 122
|
3.8 权重偏差初始化 122
|
||||||
3.8.1 全都初始化为0 122
|
3.8.1 全都初始化为0 122
|
||||||
3.8.2 全都初始化为同样的值 123
|
3.8.2 全都初始化为同样的值 123
|
||||||
3.8.3 初始化为小的随机数 124
|
3.8.3 初始化为小的随机数 124
|
||||||
3.8.4用1/sqrt(n)校准方差 125
|
3.8.4 用1/sqrt(n)校准方差 125
|
||||||
3.8.5稀疏初始化(Sparse Initialazation) 125
|
3.8.5 稀疏初始化(Sparse Initialazation) 125
|
||||||
3.8.6初始化偏差 125
|
3.8.6 初始化偏差 125
|
||||||
3.9 Softmax 126
|
3.9 Softmax 126
|
||||||
3.9.1 Softmax定义及作用 126
|
3.9.1 Softmax定义及作用 126
|
||||||
3.9.2 Softmax推导 126
|
3.9.2 Softmax推导 126
|
||||||
|
|
@ -251,20 +201,22 @@
|
||||||
3.11 常用的优化器有哪些 127
|
3.11 常用的优化器有哪些 127
|
||||||
3.12 Dropout 系列问题 128
|
3.12 Dropout 系列问题 128
|
||||||
3.12.1 dropout率的选择 128
|
3.12.1 dropout率的选择 128
|
||||||
3.27 Padding 系列问题 128
|
3.27 Padding 系列问题 128
|
||||||
## 第四章 经典网络 129
|
|
||||||
4.1LetNet5 129
|
**第四章 经典网络 129**
|
||||||
4.1.1模型结构 129
|
|
||||||
4.1.2模型结构 129
|
4.1 LetNet5 129
|
||||||
|
4.1.1 模型结构 129
|
||||||
|
4.1.2 模型结构 129
|
||||||
4.1.3 模型特性 131
|
4.1.3 模型特性 131
|
||||||
4.2 AlexNet 131
|
4.2 AlexNet 131
|
||||||
4.2.1 模型结构 131
|
4.2.1 模型结构 131
|
||||||
4.2.2模型解读 131
|
4.2.2 模型解读 131
|
||||||
4.2.3模型特性 135
|
4.2.3 模型特性 135
|
||||||
4.3 可视化ZFNet-解卷积 135
|
4.3 可视化ZFNet-解卷积 135
|
||||||
4.3.1 基本的思想及其过程 135
|
4.3.1 基本的思想及其过程 135
|
||||||
4.3.2 卷积与解卷积 136
|
4.3.2 卷积与解卷积 136
|
||||||
4.3.3卷积可视化 137
|
4.3.3 卷积可视化 137
|
||||||
4.3.4 ZFNe和AlexNet比较 139
|
4.3.4 ZFNe和AlexNet比较 139
|
||||||
4.4 VGG 140
|
4.4 VGG 140
|
||||||
4.1.1 模型结构 140
|
4.1.1 模型结构 140
|
||||||
|
|
@ -283,62 +235,64 @@
|
||||||
4.7.4 Inception V4 155
|
4.7.4 Inception V4 155
|
||||||
4.7.5 Inception-ResNet-v2 157
|
4.7.5 Inception-ResNet-v2 157
|
||||||
4.8 ResNet及其变体 158
|
4.8 ResNet及其变体 158
|
||||||
4.8.1重新审视ResNet 159
|
4.8.1 重新审视ResNet 159
|
||||||
4.8.2残差块 160
|
4.8.2 残差块 160
|
||||||
4.8.3 ResNet架构 162
|
4.8.3 ResNet架构 162
|
||||||
4.8.4残差块的变体 162
|
4.8.4 残差块的变体 162
|
||||||
4.8.5 ResNeXt 162
|
4.8.5 ResNeXt 162
|
||||||
4.8.6 Densely Connected CNN 164
|
4.8.6 Densely Connected CNN 164
|
||||||
4.8.7 ResNet作为小型网络的组合 165
|
4.8.7 ResNet作为小型网络的组合 165
|
||||||
4.8.8 ResNet中路径的特点 166
|
4.8.8 ResNet中路径的特点 166
|
||||||
4.9为什么现在的CNN模型都是在GoogleNet、VGGNet或者AlexNet上调整的? 167
|
4.9 为什么现在的CNN模型都是在GoogleNet、VGGNet或者AlexNet上调整的? 167
|
||||||
## 第五章 卷积神经网络(CNN) 170
|
|
||||||
|
**第五章 卷积神经网络(CNN) 170**
|
||||||
|
|
||||||
5.1 卷积神经网络的组成层 170
|
5.1 卷积神经网络的组成层 170
|
||||||
5.2 卷积如何检测边缘信息? 171
|
5.2 卷积如何检测边缘信息? 171
|
||||||
5.2 卷积的几个基本定义? 174
|
5.2 卷积的几个基本定义? 174
|
||||||
5.2.1卷积核大小 174
|
5.2.1 卷积核大小 174
|
||||||
5.2.2卷积核的步长 174
|
5.2.2 卷积核的步长 174
|
||||||
5.2.3边缘填充 174
|
5.2.3 边缘填充 174
|
||||||
5.2.4输入和输出通道 174
|
5.2.4 输入和输出通道 174
|
||||||
5.3 卷积网络类型分类? 174
|
5.3 卷积网络类型分类? 174
|
||||||
5.3.1普通卷积 174
|
5.3.1 普通卷积 174
|
||||||
5.3.2扩张卷积 175
|
5.3.2 扩张卷积 175
|
||||||
5.3.3转置卷积 176
|
5.3.3 转置卷积 176
|
||||||
5.3.4可分离卷积 177
|
5.3.4 可分离卷积 177
|
||||||
5.3 图解12种不同类型的2D卷积? 178
|
5.3 图解12种不同类型的2D卷积? 178
|
||||||
5.4 2D卷积与3D卷积有什么区别? 181
|
5.4 2D卷积与3D卷积有什么区别? 181
|
||||||
5.4.1 2D 卷积 181
|
5.4.1 2D 卷积 181
|
||||||
5.4.2 3D卷积 182
|
5.4.2 3D卷积 182
|
||||||
5.5 有哪些池化方法? 183
|
5.5 有哪些池化方法? 183
|
||||||
5.5.1一般池化(General Pooling) 183
|
5.5.1 一般池化(General Pooling) 183
|
||||||
5.5.2重叠池化(OverlappingPooling) 184
|
5.5.2 重叠池化(OverlappingPooling) 184
|
||||||
5.5.3空金字塔池化(Spatial Pyramid Pooling) 184
|
5.5.3 空金字塔池化(Spatial Pyramid Pooling) 184
|
||||||
5.6 1x1卷积作用? 186
|
5.6 1x1卷积作用? 186
|
||||||
5.7卷积层和池化层有什么区别? 187
|
5.7 卷积层和池化层有什么区别? 187
|
||||||
5.8卷积核一定越大越好? 189
|
5.8 卷积核一定越大越好? 189
|
||||||
5.9每层卷积只能用一种尺寸的卷积核? 189
|
5.9 每层卷积只能用一种尺寸的卷积核? 189
|
||||||
5.10怎样才能减少卷积层参数量? 190
|
5.10 怎样才能减少卷积层参数量? 190
|
||||||
5.11卷积操作时必须同时考虑通道和区域吗? 191
|
5.11卷积操作时必须同时考虑通道和区域吗? 191
|
||||||
5.12采用宽卷积的好处有什么? 192
|
5.12 采用宽卷积的好处有什么? 192
|
||||||
5.12.1窄卷积和宽卷积 192
|
5.12.1 窄卷积和宽卷积 192
|
||||||
5.12.2 为什么采用宽卷积? 192
|
5.12.2 为什么采用宽卷积? 192
|
||||||
5.13卷积层输出的深度与哪个部件的个数相同? 192
|
5.13 卷积层输出的深度与哪个部件的个数相同? 192
|
||||||
5.14 如何得到卷积层输出的深度? 193
|
5.14 如何得到卷积层输出的深度? 193
|
||||||
5.15激活函数通常放在卷积神经网络的那个操作之后? 194
|
5.15 激活函数通常放在卷积神经网络的那个操作之后? 194
|
||||||
5.16 如何理解最大池化层有几分缩小? 194
|
5.16 如何理解最大池化层有几分缩小? 194
|
||||||
5.17理解图像卷积与反卷积 194
|
5.17 理解图像卷积与反卷积 194
|
||||||
5.17.1图像卷积 194
|
5.17.1 图像卷积 194
|
||||||
5.17.2图像反卷积 196
|
5.17.2 图像反卷积 196
|
||||||
5.18不同卷积后图像大小计算? 198
|
5.18 不同卷积后图像大小计算? 198
|
||||||
5.18.1 类型划分 198
|
5.18.1 类型划分 198
|
||||||
5.18.2 计算公式 199
|
5.18.2 计算公式 199
|
||||||
5.19 步长、填充大小与输入输出关系总结? 199
|
5.19 步长、填充大小与输入输出关系总结? 199
|
||||||
5.19.1没有0填充,单位步长 200
|
5.19.1 没有0填充,单位步长 200
|
||||||
5.19.2零填充,单位步长 200
|
5.19.2 零填充,单位步长 200
|
||||||
5.19.3不填充,非单位步长 202
|
5.19.3 不填充,非单位步长 202
|
||||||
5.19.4零填充,非单位步长 202
|
5.19.4 零填充,非单位步长 202
|
||||||
5.20 理解反卷积和棋盘效应 204
|
5.20 理解反卷积和棋盘效应 204
|
||||||
5.20.1为什么出现棋盘现象? 204
|
5.20.1 为什么出现棋盘现象? 204
|
||||||
5.20.2 有哪些方法可以避免棋盘效应? 205
|
5.20.2 有哪些方法可以避免棋盘效应? 205
|
||||||
5.21 CNN主要的计算瓶颈? 207
|
5.21 CNN主要的计算瓶颈? 207
|
||||||
5.22 CNN的参数经验设置 207
|
5.22 CNN的参数经验设置 207
|
||||||
|
|
@ -346,8 +300,8 @@
|
||||||
5.23.1 主要方法 208
|
5.23.1 主要方法 208
|
||||||
5.23.2 实验证明 208
|
5.23.2 实验证明 208
|
||||||
5.24 CNN在CV与NLP领域运用的联系与区别? 213
|
5.24 CNN在CV与NLP领域运用的联系与区别? 213
|
||||||
5.24.1联系 213
|
5.24.1 联系 213
|
||||||
5.24.2区别 213
|
5.24.2 区别 213
|
||||||
5.25 CNN凸显共性的手段? 213
|
5.25 CNN凸显共性的手段? 213
|
||||||
5.25.1 局部连接 213
|
5.25.1 局部连接 213
|
||||||
5.25.2 权值共享 214
|
5.25.2 权值共享 214
|
||||||
|
|
@ -355,13 +309,15 @@
|
||||||
5.26 全卷积与Local-Conv的异同点 215
|
5.26 全卷积与Local-Conv的异同点 215
|
||||||
5.27 举例理解Local-Conv的作用 215
|
5.27 举例理解Local-Conv的作用 215
|
||||||
5.28 简述卷积神经网络进化史 216
|
5.28 简述卷积神经网络进化史 216
|
||||||
## 第六章 循环神经网络(RNN) 218
|
|
||||||
|
**第六章 循环神经网络(RNN) 218**
|
||||||
|
|
||||||
6.1 RNNs和FNNs有什么区别? 218
|
6.1 RNNs和FNNs有什么区别? 218
|
||||||
6.2 RNNs典型特点? 218
|
6.2 RNNs典型特点? 218
|
||||||
6.3 RNNs能干什么? 219
|
6.3 RNNs能干什么? 219
|
||||||
6.4 RNNs在NLP中典型应用? 220
|
6.4 RNNs在NLP中典型应用? 220
|
||||||
6.5 RNNs训练和传统ANN训练异同点? 220
|
6.5 RNNs训练和传统ANN训练异同点? 220
|
||||||
6.6常见的RNNs扩展和改进模型 221
|
6.6 常见的RNNs扩展和改进模型 221
|
||||||
6.6.1 Simple RNNs(SRNs) 221
|
6.6.1 Simple RNNs(SRNs) 221
|
||||||
6.6.2 Bidirectional RNNs 221
|
6.6.2 Bidirectional RNNs 221
|
||||||
6.6.3 Deep(Bidirectional) RNNs 222
|
6.6.3 Deep(Bidirectional) RNNs 222
|
||||||
|
|
@ -369,21 +325,23 @@
|
||||||
6.6.5 Gated Recurrent Unit Recurrent Neural Networks 224
|
6.6.5 Gated Recurrent Unit Recurrent Neural Networks 224
|
||||||
6.6.6 LSTM Netwoorks 224
|
6.6.6 LSTM Netwoorks 224
|
||||||
6.6.7 Clockwork RNNs(CW-RNNs) 225
|
6.6.7 Clockwork RNNs(CW-RNNs) 225
|
||||||
## 第七章 目标检测 228
|
|
||||||
7.1基于候选区域的目标检测器 228
|
**第七章 目标检测 228**
|
||||||
7.1.1滑动窗口检测器 228
|
|
||||||
7.1.2选择性搜索 229
|
7.1 基于候选区域的目标检测器 228
|
||||||
|
7.1.1 滑动窗口检测器 228
|
||||||
|
7.1.2 选择性搜索 229
|
||||||
7.1.3 R-CNN 230
|
7.1.3 R-CNN 230
|
||||||
7.1.4边界框回归器 230
|
7.1.4 边界框回归器 230
|
||||||
7.1.5 Fast R-CNN 231
|
7.1.5 Fast R-CNN 231
|
||||||
7.1.6 ROI 池化 233
|
7.1.6 ROI 池化 233
|
||||||
7.1.7 Faster R-CNN 233
|
7.1.7 Faster R-CNN 233
|
||||||
7.1.8候选区域网络 234
|
7.1.8 候选区域网络 234
|
||||||
7.1.9 R-CNN 方法的性能 236
|
7.1.9 R-CNN 方法的性能 236
|
||||||
7.2 基于区域的全卷积神经网络(R-FCN) 237
|
7.2 基于区域的全卷积神经网络(R-FCN) 237
|
||||||
7.3 单次目标检测器 240
|
7.3 单次目标检测器 240
|
||||||
7.3.1单次检测器 241
|
7.3.1单次检测器 241
|
||||||
7.3.2滑动窗口进行预测 241
|
7.3.2 滑动窗口进行预测 241
|
||||||
7.3.3 SSD 243
|
7.3.3 SSD 243
|
||||||
7.4 YOLO系列 244
|
7.4 YOLO系列 244
|
||||||
7.4.1 YOLOv1介绍 244
|
7.4.1 YOLOv1介绍 244
|
||||||
|
|
@ -394,23 +352,25 @@
|
||||||
7.4.6 YOLO9000 261
|
7.4.6 YOLO9000 261
|
||||||
7.4.7 YOLOv3 263
|
7.4.7 YOLOv3 263
|
||||||
7.4.8 YOLOv3改进 264
|
7.4.8 YOLOv3改进 264
|
||||||
## 第八章 图像分割 269
|
|
||||||
|
**第八章 图像分割 269**
|
||||||
|
|
||||||
8.1 传统的基于CNN的分割方法缺点? 269
|
8.1 传统的基于CNN的分割方法缺点? 269
|
||||||
8.1 FCN 269
|
8.1 FCN 269
|
||||||
8.1.1 FCN改变了什么? 269
|
8.1.1 FCN改变了什么? 269
|
||||||
8.1.2 FCN网络结构? 270
|
8.1.2 FCN网络结构? 270
|
||||||
8.1.3全卷积网络举例? 271
|
8.1.3 全卷积网络举例? 271
|
||||||
8.1.4为什么CNN对像素级别的分类很难? 271
|
8.1.4 为什么CNN对像素级别的分类很难? 271
|
||||||
8.1.5全连接层和卷积层如何相互转化? 272
|
8.1.5 全连接层和卷积层如何相互转化? 272
|
||||||
8.1.6 FCN的输入图片为什么可以是任意大小? 272
|
8.1.6 FCN的输入图片为什么可以是任意大小? 272
|
||||||
8.1.7把全连接层的权重W重塑成卷积层的滤波器有什么好处? 273
|
8.1.7 把全连接层的权重W重塑成卷积层的滤波器有什么好处? 273
|
||||||
8.1.8反卷积层理解 275
|
8.1.8 反卷积层理解 275
|
||||||
8.1.9跳级(skip)结构 276
|
8.1.9 跳级(skip)结构 276
|
||||||
8.1.10模型训练 277
|
8.1.10 模型训练 277
|
||||||
8.1.11 FCN缺点 280
|
8.1.11 FCN缺点 280
|
||||||
8.2 U-Net 280
|
8.2 U-Net 280
|
||||||
8.3 SegNet 282
|
8.3 SegNet 282
|
||||||
8.4空洞卷积(Dilated Convolutions) 283
|
8.4 空洞卷积(Dilated Convolutions) 283
|
||||||
8.4 RefineNet 285
|
8.4 RefineNet 285
|
||||||
8.5 PSPNet 286
|
8.5 PSPNet 286
|
||||||
8.6 DeepLab系列 288
|
8.6 DeepLab系列 288
|
||||||
|
|
@ -426,18 +386,22 @@
|
||||||
8.8.1 Scribble标记 295
|
8.8.1 Scribble标记 295
|
||||||
8.8.2 图像级别标记 297
|
8.8.2 图像级别标记 297
|
||||||
8.8.3 DeepLab+bounding box+image-level labels 298
|
8.8.3 DeepLab+bounding box+image-level labels 298
|
||||||
8.8.4统一的框架 299
|
8.8.4 统一的框架 299
|
||||||
## 第九章 强化学习 301
|
|
||||||
9.1强化学习的主要特点? 301
|
**第九章 强化学习 301**
|
||||||
9.2强化学习应用实例 302
|
|
||||||
9.3强化学习和监督式学习、非监督式学习的区别 303
|
9.1 强化学习的主要特点? 301
|
||||||
|
9.2 强化学习应用实例 302
|
||||||
|
9.3 强化学习和监督式学习、非监督式学习的区别 303
|
||||||
9.4 强化学习主要有哪些算法? 305
|
9.4 强化学习主要有哪些算法? 305
|
||||||
9.5深度迁移强化学习算法 305
|
9.5 深度迁移强化学习算法 305
|
||||||
9.6分层深度强化学习算法 306
|
9.6 分层深度强化学习算法 306
|
||||||
9.7深度记忆强化学习算法 306
|
9.7 深度记忆强化学习算法 306
|
||||||
9.8 多智能体深度强化学习算法 307
|
9.8 多智能体深度强化学习算法 307
|
||||||
9.9深度强化学习算法小结 307
|
9.9 深度强化学习算法小结 307
|
||||||
## 第十章 迁移学习 309
|
|
||||||
|
**第十章 迁移学习 309**
|
||||||
|
|
||||||
10.1 什么是迁移学习? 309
|
10.1 什么是迁移学习? 309
|
||||||
10.2 什么是多任务学习? 309
|
10.2 什么是多任务学习? 309
|
||||||
10.3 多任务学习有什么意义? 309
|
10.3 多任务学习有什么意义? 309
|
||||||
|
|
@ -445,9 +409,11 @@
|
||||||
10.5 端到端的深度学习举例? 311
|
10.5 端到端的深度学习举例? 311
|
||||||
10.6 端到端的深度学习有什么挑战? 311
|
10.6 端到端的深度学习有什么挑战? 311
|
||||||
10.7 端到端的深度学习优缺点? 312
|
10.7 端到端的深度学习优缺点? 312
|
||||||
## 第十三章 优化算法 314
|
|
||||||
|
**第十三章 优化算法 314**
|
||||||
|
|
||||||
13.1 CPU和GPU 的区别? 314
|
13.1 CPU和GPU 的区别? 314
|
||||||
13.2如何解决训练样本少的问题 315
|
13.2 如何解决训练样本少的问题 315
|
||||||
13.3 什么样的样本集不适合用深度学习? 315
|
13.3 什么样的样本集不适合用深度学习? 315
|
||||||
13.4 有没有可能找到比已知算法更好的算法? 316
|
13.4 有没有可能找到比已知算法更好的算法? 316
|
||||||
13.5 何为共线性, 跟过拟合有啥关联? 316
|
13.5 何为共线性, 跟过拟合有啥关联? 316
|
||||||
|
|
@ -479,28 +445,33 @@
|
||||||
13.27 可避免偏差、几大错误率之间的关系? 332
|
13.27 可避免偏差、几大错误率之间的关系? 332
|
||||||
13.28 怎样选取可避免偏差及贝叶斯错误率? 332
|
13.28 怎样选取可避免偏差及贝叶斯错误率? 332
|
||||||
13.29 怎样减少方差? 333
|
13.29 怎样减少方差? 333
|
||||||
13.30贝叶斯错误率的最佳估计 333
|
13.30 贝叶斯错误率的最佳估计 333
|
||||||
13.31举机器学习超过单个人类表现几个例子? 334
|
13.31 举机器学习超过单个人类表现几个例子? 334
|
||||||
13.32如何改善你的模型? 334
|
13.32 如何改善你的模型? 334
|
||||||
13.33 理解误差分析 335
|
13.33 理解误差分析 335
|
||||||
13.34 为什么值得花时间查看错误标记数据? 336
|
13.34 为什么值得花时间查看错误标记数据? 336
|
||||||
13.35 快速搭建初始系统的意义? 336
|
13.35 快速搭建初始系统的意义? 336
|
||||||
13.36 为什么要在不同的划分上训练及测试? 337
|
13.36 为什么要在不同的划分上训练及测试? 337
|
||||||
13.37 如何解决数据不匹配问题? 338
|
13.37 如何解决数据不匹配问题? 338
|
||||||
13.38 梯度检验注意事项? 340
|
13.38 梯度检验注意事项? 340
|
||||||
13.39什么是随机梯度下降? 341
|
13.39 什么是随机梯度下降? 341
|
||||||
13.40什么是批量梯度下降? 341
|
13.40 什么是批量梯度下降? 341
|
||||||
13.41什么是小批量梯度下降? 341
|
13.41 什么是小批量梯度下降? 341
|
||||||
13.42怎么配置mini-batch梯度下降 342
|
13.42 怎么配置mini-batch梯度下降 342
|
||||||
13.43 局部最优的问题 343
|
13.43 局部最优的问题 343
|
||||||
13.44提升算法性能思路 346
|
13.44 提升算法性能思路 346
|
||||||
## 第十四章 超参数调整 358
|
|
||||||
|
**第十四章 超参数调整 358**
|
||||||
|
|
||||||
14.1 调试处理 358
|
14.1 调试处理 358
|
||||||
14.2 有哪些超参数 359
|
14.2 有哪些超参数 359
|
||||||
14.3 如何选择调试值? 359
|
14.3 如何选择调试值? 359
|
||||||
14.4 为超参数选择合适的范围 359
|
14.4 为超参数选择合适的范围 359
|
||||||
14.5 如何搜索超参数? 359
|
14.5 如何搜索超参数? 359
|
||||||
## 第十五章 异构计算, GPU和框架选型指南 361
|
|
||||||
|
**第十五章 异构计算, GPU和框架选型指南 361**
|
||||||
|
|
||||||
|
|
||||||
15.1 什么是异构计算? 361
|
15.1 什么是异构计算? 361
|
||||||
15.2 什么是GPGPU? 361
|
15.2 什么是GPGPU? 361
|
||||||
15.3 GPU架构简介 361
|
15.3 GPU架构简介 361
|
||||||
|
|
@ -531,7 +502,87 @@
|
||||||
15.8.5 TPU和GPU的区别?
|
15.8.5 TPU和GPU的区别?
|
||||||
15.8.6 未来量子计算对于深度学习等AI技术的影像?
|
15.8.6 未来量子计算对于深度学习等AI技术的影像?
|
||||||
|
|
||||||
|
**参考文献 366**
|
||||||
## 参考文献 366
|
|
||||||
hey you are looked like a cool developer.
|
hey you are looked like a cool developer.
|
||||||
Translate it in english.
|
Translate it in english.
|
||||||
|
|
||||||
|
# 4. 加入以及文档规范
|
||||||
|
寻求有愿意继续完善的朋友、编辑、写手;如有意合作,完善出书(成为共同作者)。
|
||||||
|
所有提交内容的贡献者,将会在文中体现贡献者个人信息(例: 大佬-西湖大学)
|
||||||
|
为了让内容更充实完善,集思广益,欢迎Fork该项目并参与编写。请在修改MD文件的同时(或直接留言)备注自己的姓名-单位(大佬-斯坦福大学),一经采纳,会在原文中显示贡献者的信息,如有收益,会进一步分红,谢谢!
|
||||||
|
|
||||||
|
例子:
|
||||||
|
|
||||||
|
```markdown
|
||||||
|
### 3.3.2 如何寻找超参数的最优值?(贡献者:大佬-斯坦福大学)
|
||||||
|
|
||||||
|
在使用机器学习算法时,总有一些难搞的超参数。例如权重衰减大小,高斯核宽度等等。算法不
|
||||||
|
会设置这些参数,而是需要你去设置它们的值。设置的值对结果产生较大影响。常见设置超参数
|
||||||
|
的做法有:
|
||||||
|
|
||||||
|
1. 猜测和检查:根据经验或直觉,选择参数,一直迭代。
|
||||||
|
2. 网格搜索:让计算机尝试在一定范围内均匀分布的一组值。
|
||||||
|
3. 随机搜索:让计算机随机挑选一组值。
|
||||||
|
4. 贝叶斯优化:使用贝叶斯优化超参数,会遇到贝叶斯优化算法本身就需要很多的参数的
|
||||||
|
困难。
|
||||||
|
5. 在良好初始猜测的前提下进行局部优化:这就是 MITIE 的方法,它使用 BOBYQA 算
|
||||||
|
法,并有一个精心选择的起始点。由于 BOBYQA 只寻找最近的局部最优解,所以这个方法
|
||||||
|
是否成功很大程度上取决于是否有一个好的起点。在 MITIE 的情况下,我们知道一个好的
|
||||||
|
起点,但这不是一个普遍的解决方案,因为通常你不会知道好的起点在哪里。从好的方面来
|
||||||
|
说,这种方法非常适合寻找局部最优解。稍后我会再讨论这一点。
|
||||||
|
6. 最新提出的 LIPO 的全局优化方法。这个方法没有参数,而且经验证比随机搜索方法好。
|
||||||
|
```
|
||||||
|
|
||||||
|
# 5. 贡献与项目概览
|
||||||
|
|
||||||
|
已提交MD版本章节:请查看MarkDown(排名不分先后)
|
||||||
|
|
||||||
|
待定:表示该章节还未匹配到合适的负责人(统筹该章节的内容修改、审核、原创性陈述)
|
||||||
|
可加:表示该章节,如果有其他合适的,可以开放权限加到负责人身份
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
| 内容 | 负责人 | 状态|
|
||||||
|
| ---------------- | :-------- | :--------|
|
||||||
|
|第一章 数学基础|哈工大博士-袁笛| 待定 |
|
||||||
|
|第二章 机器学习基础|稿定科技计算机视觉工程师-刘鹏|待定|
|
||||||
|
|第三章 深度学习基础|同济大学研究生-乔成磊;稿定科技计算机视觉工程师-刘鹏|可加|
|
||||||
|
|第四章 经典网络|华南理工研究生-黄钦建|可加|
|
||||||
|
|第五章 卷积神经网络CNN |杜克大学硕士、data scientist李骁丹;重庆大学研究生-刘畅;铪星创新科技联合创始人-杨文英;|可加|
|
||||||
|
|第六章 循环神经网络RNN|杜克大学硕士、data scientist李骁丹|可加|
|
||||||
|
|第七章 生成对抗网络GAN|牛津大学博士泽华;中科院硕士、爱奇艺算法工程师-郭晓锋;||
|
||||||
|
|第八章 目标检测|稿定科技计算机视觉工程师-刘鹏;哈工大博士袁笛;上海大学研究生-陈方杰||
|
||||||
|
|第九章 图像分割|华南理工研究生-黄钦建;电子科大研究生-孙洪卫、张越;中国农业科学院-杨国峰||
|
||||||
|
|第十章 强化学习|复旦大学研究生明杰,杭州启飞CTO-徐武民|可加|
|
||||||
|
|第十一章 迁移学习|中科院计算技术研究所博士-王晋东|可加|
|
||||||
|
|第十二章 网络搭建及训练| |待定|
|
||||||
|
|第十三章 优化算法|杭州启飞CTO-徐武民|可加|
|
||||||
|
|第十四章 超参数调整|中兴通讯有限公司算法工程师-王超锋|可加|
|
||||||
|
|第十五章 GPU和框架选型|澳洲monash大学Research Scientist/Telstra(澳洲电信)Data Scientist-钟申俊博士;平安科技算法工程师-崔永明|可加|
|
||||||
|
|第十六章 自然语言处理NLP|电子科技大学博士-盛泳潘;深圳乌灵图明科技有限公司CTO-何建宏;DaoCloud研发工程师-张善干;澳洲monash大学Research Scientist/Telstra(澳洲电信)Data Scientist-钟申俊博士;华南理工大学&UCI博士-黄振华||
|
||||||
|
|第十七章 移动端框架部署(新增)|川大硕士-顺丰科技-谈继勇;贵州大学硕士-三星-张达峰|可加|
|
||||||
|
|
||||||
|
|
||||||
|
# 6. 更多
|
||||||
|
|
||||||
|
1. 寻求有愿意继续完善的朋友、编辑、写手; 如有意合作,完善出书(成为共同作者)。
|
||||||
|
所有提交内容的贡献者,将会在文中体现贡献者个人信息(大佬-西湖大学)。
|
||||||
|
|
||||||
|
2. 联系方式 : 请联系scutjy2015@163.com (唯一官方邮箱);
|
||||||
|
|
||||||
|
微信Tan: tan_weixin88(进群先在MD版本增加、改善、提交内容后,更容易进群。)
|
||||||
|
|
||||||
|
进群请加微信 委托人1:HQJ199508212176 委托人2:Xuwumin1203 委托人3:tianyuzy
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|

|
||||||
|
|
||||||
|
|
||||||
|
3. 注意, 现出现不法分子冒充发起人,请广大伙伴儿知悉!
|
||||||
|
|
||||||
|
4. 接下来,将提供MD版本,大家一起编辑完善,敬请期待!希望踊跃提建议,补充修改内容!
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
|
|
|
||||||
Loading…
Reference in New Issue