修正了文档中数学公式无法显示的问题

This commit is contained in:
jackfrued 2025-02-13 17:33:31 +08:00
parent a215b55e12
commit ca8f2fcbf4
1 changed files with 1 additions and 1 deletions

View File

@ -183,7 +183,7 @@ print(classification_report(y_test, y_pred))
1. `hidden_layer_sizes`:指定神经网络中每一层的神经元数目,元组类型,默认值为`(100, )`,表示只有一个隐藏层,包含 100 个神经元。该超参数可以改变网络的结构和容量,层数越多,神经元数目越多,模型的表示能力就越强,但也存在过拟合风险。 1. `hidden_layer_sizes`:指定神经网络中每一层的神经元数目,元组类型,默认值为`(100, )`,表示只有一个隐藏层,包含 100 个神经元。该超参数可以改变网络的结构和容量,层数越多,神经元数目越多,模型的表示能力就越强,但也存在过拟合风险。
2. `activation`:隐藏层中神经元的激活函数,默认值为`relu`,表示使用 ReLU 激活函数。激活函数决定了网络每一层的输出形态,一般来说,`'relu'` 是训练深度网络时的首选,因为它能够缓解梯度消失问题,并且训练速度较快,可选值包括: 2. `activation`:隐藏层中神经元的激活函数,默认值为`relu`,表示使用 ReLU 激活函数。激活函数决定了网络每一层的输出形态,一般来说,`'relu'` 是训练深度网络时的首选,因为它能够缓解梯度消失问题,并且训练速度较快,可选值包括:
- `'identity'`:线性激活函数,即$\small{f(x) = x}$,通常不推荐使用。 - `'identity'`:线性激活函数,即 $\small{f(x) = x}$ ,通常不推荐使用。
- `'logistic'` / `'tanh'` / `'relu'`Sigmoid / 双曲正切 / ReLU 激活函数。 - `'logistic'` / `'tanh'` / `'relu'`Sigmoid / 双曲正切 / ReLU 激活函数。
3. `solver`:用来优化模型参数的求解器(优化算法)。常用的优化算法有: 3. `solver`:用来优化模型参数的求解器(优化算法)。常用的优化算法有:
- `'lbfgs'`拟牛顿法Limited-memory Broyden-Fletcher-Goldfarb-Shanno这种方法计算复杂度较高但对小数据集表现较好。 - `'lbfgs'`拟牛顿法Limited-memory Broyden-Fletcher-Goldfarb-Shanno这种方法计算复杂度较高但对小数据集表现较好。