From ca8f2fcbf4f35ac8ccc606c027c425dd02cdb809 Mon Sep 17 00:00:00 2001 From: jackfrued Date: Thu, 13 Feb 2025 17:33:31 +0800 Subject: [PATCH] =?UTF-8?q?=E4=BF=AE=E6=AD=A3=E4=BA=86=E6=96=87=E6=A1=A3?= =?UTF-8?q?=E4=B8=AD=E6=95=B0=E5=AD=A6=E5=85=AC=E5=BC=8F=E6=97=A0=E6=B3=95?= =?UTF-8?q?=E6=98=BE=E7=A4=BA=E7=9A=84=E9=97=AE=E9=A2=98?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- Day81-90/88.神经网络模型.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/Day81-90/88.神经网络模型.md b/Day81-90/88.神经网络模型.md index a7e7786..509a5f9 100755 --- a/Day81-90/88.神经网络模型.md +++ b/Day81-90/88.神经网络模型.md @@ -183,7 +183,7 @@ print(classification_report(y_test, y_pred)) 1. `hidden_layer_sizes`:指定神经网络中每一层的神经元数目,元组类型,默认值为`(100, )`,表示只有一个隐藏层,包含 100 个神经元。该超参数可以改变网络的结构和容量,层数越多,神经元数目越多,模型的表示能力就越强,但也存在过拟合风险。 2. `activation`:隐藏层中神经元的激活函数,默认值为`relu`,表示使用 ReLU 激活函数。激活函数决定了网络每一层的输出形态,一般来说,`'relu'` 是训练深度网络时的首选,因为它能够缓解梯度消失问题,并且训练速度较快,可选值包括: - - `'identity'`:线性激活函数,即$\small{f(x) = x}$,通常不推荐使用。 + - `'identity'`:线性激活函数,即 $\small{f(x) = x}$ ,通常不推荐使用。 - `'logistic'` / `'tanh'` / `'relu'`:Sigmoid / 双曲正切 / ReLU 激活函数。 3. `solver`:用来优化模型参数的求解器(优化算法)。常用的优化算法有: - `'lbfgs'`:拟牛顿法(Limited-memory Broyden-Fletcher-Goldfarb-Shanno),这种方法计算复杂度较高,但对小数据集表现较好。