Update 第二章_机器学习基础.md

This commit is contained in:
scutan90 2019-04-10 16:58:47 +08:00
parent ffe87edd82
commit 9235e689b3
1 changed files with 1 additions and 3 deletions

View File

@ -678,9 +678,7 @@ c) 随机梯度下降是通过每个样本来迭代更新一次。
| 方法 | 特点 |
| :----------: | :----------------------------------------------------------- |
| 批量梯度下降 | a采用所有数据来梯度下降。<br/>b) 批量梯度下降法在样本量很大的时候,训练速度慢。 |
| 随机梯度下降 | b) 随机梯度下降用一个样本来梯度下降。<br/>b) 训练速度很快。 |
| c) 随机梯度下降法仅仅用一个样本决定梯度方向,导致解有可能不是最优。 |
| d) 收敛速度来说,随机梯度下降法一次迭代一个样本,导致迭代方向变化很大,不能很快的收敛到局部最优解。 |
| 随机梯度下降 | a) 随机梯度下降用一个样本来梯度下降。<br/>b) 训练速度很快。<br />c) 随机梯度下降法仅仅用一个样本决定梯度方向,导致解有可能不是最优。<br />d) 收敛速度来说,随机梯度下降法一次迭代一个样本,导致迭代方向变化很大,不能很快的收敛到局部最优解。 |
下面介绍能结合两种方法优点的小批量梯度下降法。