Update 第十四章_超参数调整.md

修改typo错误,增加神经网搜索部分内容
This commit is contained in:
urjv 2019-07-05 19:03:04 +10:00 committed by GitHub
parent 7deccd0cbf
commit 93625d4ad6
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
1 changed files with 6 additions and 2 deletions

View File

@ -32,7 +32,7 @@
优化参数一般指学习率learning rate、批样本数量batch size、不同优化器的参数以及部分损失函数的可调参数。
正则化:权重衰减系数,丢弃比率dropout
正则化权重衰减系数丢弃比率dropout
### 14.2.3 为什么要进行超参数调优?
@ -301,6 +301,8 @@ GAN常用训练技巧
这几方面都对最终的结果有着举足轻重的影响这也是目前的数据工程师和学者们的主要工作。但由于这每一方面都十分繁琐尤其是在构建模型和训练模型上。而大部分情况下这些工作有无须过深专业知识就能使用起来。所以AutoML主要的作用就是来帮助实现高效的模型构建和超参数调整。例如深度学习网络的架构搜索、超参数的重要性分析等等。当然AutoML并不简单的进行暴力或者随机的搜索其仍然需要机器学习方面的知识例如贝叶斯优化、强化学习、元学习以及迁移学习等等。目前也有些不错的AutoML工具包例如Alex Honchar的Hyperopt、微软的NNI、Autokeras等。
目前AutoML已经成为最新的研究热点有兴趣的可以参考[AutoML literature](https://www.automl.org/automl/literature-on-neural-architecture-search/)。
### 14.6.2 自动化超参数搜索方法有哪些?
目前自动化搜索主要包含网格搜索,随机搜索,基于模型的超参优化
@ -327,7 +329,7 @@ GAN常用训练技巧
- 搜索空间,即在哪搜索,定义了优化问题所需变量。不同规模的搜索空间的变量其对于的难度也是不一样的。早期由于网络结构以及层数相对比较简单,参数量较少,因此会更多的使用遗传算法等进化算法对网络的超参数和权重进行优化。深度学习发展到目前,模型网络结构越来越复杂,参数量级越来越庞大,这些进化算法已经无法继续使用。但若我们先验给定一些网络结构和超参数,模型的性能已经被限制在给定的空间,此时搜索的空间已变得有限,所以只需对复杂模型的架构参数和对应的超参数进行优化即可。
- 搜索策略, 即如何搜索定义了如何快速、准确找到最优的网络结构参数配置的策略。常见的搜索方法包括随机搜索、贝叶斯优化以及基于模型的搜索算法。其中主要代表为2017 年谷歌大脑的使用强化学习的搜索方法。
- 搜索策略, 即如何搜索,定义了如何快速、准确找到最优的网络结构参数配置的策略。常见的搜索方法包括:随机搜索、贝叶斯优化、强化学习、进化算法以及基于模型的搜索算法。其中主要代表为2017年谷歌大脑的使用强化学习的搜索方法。
- 评价预估,定义了如何高效对搜索的评估策略。深度学习中,数据规模往往是庞大的,模型要在如此庞大的数据规模上进行搜索,这无疑是非常耗时的,对优化也会造成非常大的困难,所以需要一些高效的策略做近似的评估。 这里一般会有如下三种思路:
@ -394,6 +396,8 @@ NASNet大体沿用了上述生成网络结构的机器并在此基础上做
因此一个设计优秀的权重共享方式,在降低计算量的同时,通常会较独享网络有更好的效果。
权重共享不仅在人工设计human-invented的网络结构中有简化参数降低模型复杂度的作用在神经网络搜索NAS的网络结构中可以使得child model的计算效率提升使得搜索过程可以在单卡GPU上复现见Efficient NAS([ENAS](https://arxiv.org/abs/1802.03268))。