Update 第二章_机器学习基础.md
This commit is contained in:
parent
ffe87edd82
commit
9235e689b3
|
|
@ -678,9 +678,7 @@ c) 随机梯度下降是通过每个样本来迭代更新一次。
|
|||
| 方法 | 特点 |
|
||||
| :----------: | :----------------------------------------------------------- |
|
||||
| 批量梯度下降 | a)采用所有数据来梯度下降。<br/>b) 批量梯度下降法在样本量很大的时候,训练速度慢。 |
|
||||
| 随机梯度下降 | b) 随机梯度下降用一个样本来梯度下降。<br/>b) 训练速度很快。 |
|
||||
| c) 随机梯度下降法仅仅用一个样本决定梯度方向,导致解有可能不是最优。 |
|
||||
| d) 收敛速度来说,随机梯度下降法一次迭代一个样本,导致迭代方向变化很大,不能很快的收敛到局部最优解。 |
|
||||
| 随机梯度下降 | a) 随机梯度下降用一个样本来梯度下降。<br/>b) 训练速度很快。<br />c) 随机梯度下降法仅仅用一个样本决定梯度方向,导致解有可能不是最优。<br />d) 收敛速度来说,随机梯度下降法一次迭代一个样本,导致迭代方向变化很大,不能很快的收敛到局部最优解。 |
|
||||
|
||||
下面介绍能结合两种方法优点的小批量梯度下降法。
|
||||
|
||||
|
|
|
|||
Loading…
Reference in New Issue