From b0e11115b194dffcd605e023c5cbbc04186aa7fb Mon Sep 17 00:00:00 2001 From: jackfrued Date: Sat, 18 Jan 2025 23:31:52 +0800 Subject: [PATCH] =?UTF-8?q?=E6=9B=B4=E6=96=B0=E4=BA=86=E9=83=A8=E5=88=86?= =?UTF-8?q?=E6=96=87=E6=A1=A3?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- Day81-90/87.集成学习算法.md | 4 ++-- Day81-90/{89.神经网络模型.md => 88.神经网络模型.md} | 0 Day81-90/{88.自然语言处理入门.md => 89.自然语言处理入门.md} | 0 README.md | 4 ++-- 4 files changed, 4 insertions(+), 4 deletions(-) rename Day81-90/{89.神经网络模型.md => 88.神经网络模型.md} (100%) rename Day81-90/{88.自然语言处理入门.md => 89.自然语言处理入门.md} (100%) diff --git a/Day81-90/87.集成学习算法.md b/Day81-90/87.集成学习算法.md index 43fdee8..c000434 100755 --- a/Day81-90/87.集成学习算法.md +++ b/Day81-90/87.集成学习算法.md @@ -305,7 +305,7 @@ plt.show() LightGBM(Light Gradient Boosting Machine)是微软于2017年开源的一款顶级 Boosting 算法框架,虽然本质仍然是 GBDT 算法,但被设计用于大规模数据集的处理,特别是在需要高效率和低内存消耗的场景下。就 GBDT 系列算法性能而言,XGBoost 已经非常高效了,但并非没有缺陷。LightGBM 就是一种针对 XGBoost 缺陷的改进版本,通过直方图算法(通过将连续特征分箱)、单边梯度抽样(GOSS,通过采样方法在训练过程中保留梯度较大的样本,减少计算量)、互斥特征捆绑(EFB,将一些互斥特征做组合,减少特征空间的维度)和 leaf-wise 生长策略(优先对当前叶子节点进行分裂来扩展树的深度)四个方法,使得 GBDT 算法系统更轻便、更高效,能够做到又快又准。当然,在较小的数据集上,LightGBM 的优势并不明显,而且不管是 XGBoost 还是 LightGBM,模型的可解释性都是一个问题,超参数调优的难度也是比较大的。 -这里,我们不再使用更多的篇幅去讲解 LightGBM 的细节,感兴趣的小伙伴可以直接访问 LightGBM 的[官方文档](https://lightgbm.readthedocs.io/en/stable/index.html)。我们直接通过代码带大家简单感受一下如何使用 LightGBM,首先还是需要通过下面的命令完后安装。 +这里,我们不再使用更多的篇幅去讲解 LightGBM 的细节,感兴趣的小伙伴可以直接访问 LightGBM 的[官方文档](https://lightgbm.readthedocs.io/en/stable/index.html)。我们直接通过代码带大家简单感受一下如何使用 LightGBM,首先还是需要通过下面的命令完成安装。 ```bash pip install lightgbm @@ -378,7 +378,7 @@ print(classification_report(y_test, y_pred_max)) ### 总结 -集成学习通过结合多个模型来减少模型的偏差和方差,通常能获得比单一模型更好的预测效果。由于集成学习通常结合多个基础模型,它能够有效降低单一模型可能存在的过拟合问题,也能够处理异常数据和噪声数据,比单一模型更加稳定。当然,集成学习也存在计算开销大、模型可解释性差、超参数调优复杂等问题。除了 XGBoost 和 LightGBM 之外,还有一个因处理类别特征而闻名的 Boosting 算法叫做 CatBoost,三者是 GBDT 系列算法的佼佼者。虽然目前“大力出奇迹”的深度学习大行其道,但是以 XGBoost、LightGBM 和 CatBoost 为代表的 Boosting 算法仍然有广阔的应用场景,即便是在非结构化数据(文本、语音、图像、视频)的建模上也是有用武之地的。 +集成学习通过结合多个模型来减少模型的偏差和方差,通常能获得比单一模型更好的预测效果。由于集成学习通常结合多个基础模型,它能够有效降低单一模型可能存在的过拟合问题,也能够处理异常数据和噪声数据,比单一模型更加稳定。当然,集成学习也存在计算开销大、模型可解释性差、超参数调优复杂等问题。除了 XGBoost 和 LightGBM 之外,还有一个因处理类别特征而闻名的 Boosting 算法叫做 CatBoost,三者都是 GBDT 系列算法的佼佼者。虽然目前“大力出奇迹”的深度学习大行其道,但是以 XGBoost、LightGBM 和 CatBoost 为代表的 Boosting 算法仍然有广阔的应用场景,即便是在非结构化数据(文本、语音、图像、视频)的建模上也是有用武之地的。 diff --git a/Day81-90/89.神经网络模型.md b/Day81-90/88.神经网络模型.md similarity index 100% rename from Day81-90/89.神经网络模型.md rename to Day81-90/88.神经网络模型.md diff --git a/Day81-90/88.自然语言处理入门.md b/Day81-90/89.自然语言处理入门.md similarity index 100% rename from Day81-90/88.自然语言处理入门.md rename to Day81-90/89.自然语言处理入门.md diff --git a/README.md b/README.md index 65bb350..86f3200 100755 --- a/README.md +++ b/README.md @@ -627,9 +627,9 @@ Python在以下领域都有用武之地。 #### Day87 - [集成学习算法](./Day81-90/87.集成学习算法.md) -#### Day88 - [自然语言处理入门](./Day81-90/88.自然语言处理入门.md) +#### Day88 - [神经网络模型](./Day81-90/88.神经网络模型.md) -#### Day89 - [神经网络模型](./Day81-90/89.神经网络模型.md) +#### Day89 - [自然语言处理入门](./Day81-90/89.自然语言处理入门.md) #### Day90 - [深度学习和PyTorch概述](./Day81-90/90.深度学习和PyTorch概述.md)