修正了部分文档中的笔误
This commit is contained in:
parent
7a0f4ae22e
commit
d1b8b629bc
|
|
@ -327,7 +327,7 @@ print(f'决定系数: {r2:.4f}')
|
||||||
岭回归是在线性回归的基础上引入 $\small{L2}$ 正则化项,目的是防止模型过拟合,尤其是当特征数较多或特征之间存在共线性时。岭回归的损失函数如下所示:
|
岭回归是在线性回归的基础上引入 $\small{L2}$ 正则化项,目的是防止模型过拟合,尤其是当特征数较多或特征之间存在共线性时。岭回归的损失函数如下所示:
|
||||||
|
|
||||||
$$
|
$$
|
||||||
L(\beta) = \sum_{i=1}^{m}{(y_{i} - \hat{y}_{i})^{2}} + \lambda \cdot \sum_{j=1}^{n}{\beta_{j}^{2}}
|
L(\beta) = \sum_{i=1}^{m}{(y_{i} - \hat{y_{i}})^{2}} + \lambda \cdot \sum_{j=1}^{n}{\beta_{j}^{2}}
|
||||||
$$
|
$$
|
||||||
|
|
||||||
其中, $\small{L2}$ 正则化项 $\small{\lambda \sum_{j=1}^{n} \beta_{j}^{2}}$ 会惩罚较大的回归系数,相当于缩小了回归系数的大小,但不会使系数为 0(即不会进行特征选择)。可以通过 scikit-learn 库`linear_model`模块的`Ridge`类实现岭回归,代码如下所示。
|
其中, $\small{L2}$ 正则化项 $\small{\lambda \sum_{j=1}^{n} \beta_{j}^{2}}$ 会惩罚较大的回归系数,相当于缩小了回归系数的大小,但不会使系数为 0(即不会进行特征选择)。可以通过 scikit-learn 库`linear_model`模块的`Ridge`类实现岭回归,代码如下所示。
|
||||||
|
|
|
||||||
Loading…
Reference in New Issue