From c38d20884b1958b8632ab6942271b37df073ebc6 Mon Sep 17 00:00:00 2001 From: jackfrued Date: Fri, 14 Feb 2025 15:13:28 +0800 Subject: [PATCH] =?UTF-8?q?=E4=BF=AE=E6=AD=A3=E4=BA=86=E6=95=B0=E5=AD=A6?= =?UTF-8?q?=E5=85=AC=E5=BC=8F=E6=97=A0=E6=B3=95=E6=98=BE=E7=A4=BA=E7=9A=84?= =?UTF-8?q?=E9=97=AE=E9=A2=98?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- Day81-90/82.k最近邻算法.md | 16 ++++++---------- Day81-90/84.朴素贝叶斯算法.md | 2 +- Day81-90/85.回归模型.md | 2 +- Day81-90/87.集成学习算法.md | 2 +- Day81-90/88.神经网络模型.md | 7 ++----- 更新日志.md | 4 ++++ 6 files changed, 15 insertions(+), 18 deletions(-) diff --git a/Day81-90/82.k最近邻算法.md b/Day81-90/82.k最近邻算法.md index 530bf49..1a926e6 100644 --- a/Day81-90/82.k最近邻算法.md +++ b/Day81-90/82.k最近邻算法.md @@ -246,7 +246,7 @@ $$ \text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{FP} + \text{FN} + \text{TN}} $$ -上面的例子,模型预测的准确率为: $\small{\frac{80 + 870}{80 + 30 + 20 + 870} = \frac{950}{1000} = 0.95}$ 。 +上面的例子,模型预测的准确率为: $\frac{80 + 870}{80 + 30 + 20 + 870} = \frac{950}{1000} = 0.95$ 。 2. **精确率**(Precesion)。精确率用于衡量在所有被预测为正类的样本中,实际上属于正类的比例,通常也被称为查准率。 @@ -254,15 +254,14 @@ $$ \text{Precesion} = \frac{\text{TP}}{\text{TP} + \text{FP}} $$ -上面的例子,模型预测的精确率为: $\small{\frac{80}{80 + 30} = \frac{80}{110} = 0.73}$ 。 +上面的例子,模型预测的精确率为: $\frac{80}{80 + 30} = \frac{80}{110} = 0.73$ 。 3. **召回率**(Recall)。召回率用于衡量在所有实际为正类的样本中,被模型正确预测为正类的比例,通常也被称为查全率或真正例率(True Positive Rate)。 - $$ \text{Recall} = \frac{\text{TP}}{\text{TP} + \text{FN}} $$ -上面的例子,模型预测的召回率为: $\small{\frac{80}{80 + 20} = \frac{80}{100} = 0.8}$ 。 +上面的例子,模型预测的召回率为: $\frac{80}{80 + 20} = \frac{80}{100} = 0.8$ 。 4. **F1 分数**(F1 Score)。F1 分数是精确率和召回率的调和平均数,它在精确率和召回率之间寻求一个平衡,尤其适用于在两者之间有权衡的情况。 @@ -270,19 +269,16 @@ $$ \text{F1 Score} = \frac{2}{\frac{1}{\text{Precision}} + \frac{1}{\text{Recall}}} = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precesion} + \text{Recall}} $$ -上面的例子,模型预测的F1 分数为: $\small{2 \times \frac{0.7273 * 0.8}{0.7273 + 0.8} = 0.76}$ 。 +上面的例子,模型预测的F1 分数为: $2 \times \frac{0.7273 * 0.8}{0.7273 + 0.8} = 0.76$ 。 5. **特异度**(Specificity)和**假正例率**(False Positive Rate,简称 FPR)。特异度用于衡量的是在所有实际为负类的样本中,被模型正确预测为负类的比例,类似于召回率,只不过针对的是负类样本。 $$ -\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}} -$$ - -$$ +\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}} \\\\ \text{FPR} = 1 - \text{Specificity} $$ -上面的例子,模型预测的特异度为: $\small{\frac{870}{870 + 30} = \frac{870}{900} = 0.97}$ 。 +上面的例子,模型预测的特异度为: $\frac{870}{870 + 30} = \frac{870}{900} = 0.97$ 。 6. **ROC** 和 **AUC**。 diff --git a/Day81-90/84.朴素贝叶斯算法.md b/Day81-90/84.朴素贝叶斯算法.md index f0df159..d2f4406 100755 --- a/Day81-90/84.朴素贝叶斯算法.md +++ b/Day81-90/84.朴素贝叶斯算法.md @@ -15,7 +15,7 @@ $$ 回到上面李女士购买飞机延误险的例子,假设本次航班是从成都双流国际机场飞往北京首都国际机场,执飞的航空公司是四川航空,起飞地天气为雨天(小雨),温度为8°C,东北风2级,降落地天气为晴天,温度4°C,西北风2级。为了更简单的让大家理解贝叶斯定理,我们对这里的条件稍作简化,只保留天气中的降水信息,暂不考虑温度和风速等其他因素,对应到上面的贝叶斯定理有: $$ -P(延误 \vert 起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航) = \\ +P(延误 \vert 起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航) = \\\\ \frac{P(起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航 \vert 延误)}{P(起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航)} \cdot P(延误) $$ diff --git a/Day81-90/85.回归模型.md b/Day81-90/85.回归模型.md index ccc87f7..218cc61 100755 --- a/Day81-90/85.回归模型.md +++ b/Day81-90/85.回归模型.md @@ -106,7 +106,7 @@ $$ 梯度下降法通过以下更新规则来更新参数 $\small{\mathbf{\beta}}$ : $$ -\mathbf{\beta}^{\prime} = \mathbf{\beta} - \alpha \nabla L(\mathbf{\beta}) \\ +\mathbf{\beta}^{\prime} = \mathbf{\beta} - \alpha \nabla L(\mathbf{\beta}) \\\\ \mathbf{\beta} = \mathbf{\beta^{\prime}} $$ diff --git a/Day81-90/87.集成学习算法.md b/Day81-90/87.集成学习算法.md index e0306f5..5139d74 100755 --- a/Day81-90/87.集成学习算法.md +++ b/Day81-90/87.集成学习算法.md @@ -67,7 +67,7 @@ $$ 其中, $\small{\text{sign}}$ 是符号函数,其定义如下所示: $$ -\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\ -1 \ (z \lt 0) \end{cases} +\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\\\ -1 \ (z \lt 0) \end{cases} $$ 例如,有 3 个弱学习器 $\small{h_{1}(x)}$、 $\small{h_{2}(x)}$、 $\small{h_{3}(x)}$,它们的输出分别是`+1`、`-1`和`+1`,对应的权重是 $\small{\alpha_{1} = 0.5}$、 $\small{\alpha_{2} = 0.3}$、 $\small{\alpha_{3} = 0.2}$ ,那么加权和为: diff --git a/Day81-90/88.神经网络模型.md b/Day81-90/88.神经网络模型.md index 509a5f9..947909f 100755 --- a/Day81-90/88.神经网络模型.md +++ b/Day81-90/88.神经网络模型.md @@ -76,7 +76,7 @@ $$ 4. Leaky ReLU 函数 $$ -f(x) = \begin{cases} x & (x \gt 0) \\ {\alpha}x & (x \le 0)\end{cases} +f(x) = \begin{cases} x & (x \gt 0) \\\\ {\alpha}x & (x \le 0)\end{cases} $$ - **特点**:Leaky ReLU 是对 ReLU 的改进,它为输入小于零的部分引入了一个小的负斜率(通常取值 $\small{\alpha = 0.01}$ ),使得梯度不为零。 @@ -94,10 +94,7 @@ $$ 对于神经网络模型来说,还有一个极其重要的操作就是通过计算损失函数相对于每个权重和偏置的梯度来更新神经网络的参数(权重和偏置),这一过程通常称为反向传播(back-propagation)。反向传播有两个要点,一个是损失函数,一个是梯度下降法,前者用于衡量预测值与真实值之间的差距,常用的损失函数有均方误差(回归任务)和交叉熵损失函数(分类任务),后者通过更新参数 $\small{\theta}$(权重和偏置),使得损失函数最小化,即: $$ -\theta^{\prime} = \theta - \eta \nabla L(\theta) -$$ - -$$ +\theta^{\prime} = \theta - \eta \nabla L(\theta) \\\\ \theta = \theta^{\prime} $$ diff --git a/更新日志.md b/更新日志.md index 8fc13c1..ea0758c 100755 --- a/更新日志.md +++ b/更新日志.md @@ -1,5 +1,9 @@ ## 更新日志 +### 2025年2月14日 + +1. 解决了数学公式无法显示的问题。 + ### 2025 年1月30日 1. 更新了第01-20天《Python语言基础》部分的内容。