Update 第二章_机器学习基础.md
This commit is contained in:
parent
bd20036f16
commit
11dab80000
|
|
@ -579,7 +579,7 @@ TODO
|
||||||
### 2.12.8 各种梯度下降法性能比较
|
### 2.12.8 各种梯度下降法性能比较
|
||||||
下表简单对比随机梯度下降(SGD)、批量梯度下降(BGD)、小批量梯度下降(mini-batch GD)、和online GD的区别,主要区别在于如何选取训练数据:
|
下表简单对比随机梯度下降(SGD)、批量梯度下降(BGD)、小批量梯度下降(mini-batch GD)、和online GD的区别,主要区别在于如何选取训练数据:
|
||||||
|
|
||||||
|BGD|SGD|Mini-batch GD|Online GD|
|
|BGD|SGD|GD|Mini-batch GD|Online GD|
|
||||||
|:-:|:-:|:-:|:-:|:-:|:-:|
|
|:-:|:-:|:-:|:-:|:-:|:-:|
|
||||||
|训练集|固定|固定|固定|实时更新|
|
|训练集|固定|固定|固定|实时更新|
|
||||||
|单次迭代样本数|整个训练集|单个样本|训练集的子集|根据具体算法定|
|
|单次迭代样本数|整个训练集|单个样本|训练集的子集|根据具体算法定|
|
||||||
|
|
|
||||||
Loading…
Reference in New Issue