修正了数学公式无法显示的问题

This commit is contained in:
jackfrued 2025-02-14 15:13:28 +08:00
parent 076406a7a6
commit c38d20884b
6 changed files with 15 additions and 18 deletions

View File

@ -246,7 +246,7 @@ $$
\text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{FP} + \text{FN} + \text{TN}}
$$
上面的例子,模型预测的准确率为: $\small{\frac{80 + 870}{80 + 30 + 20 + 870} = \frac{950}{1000} = 0.95}$ 。
上面的例子,模型预测的准确率为: $\frac{80 + 870}{80 + 30 + 20 + 870} = \frac{950}{1000} = 0.95$ 。
2. **精确率**Precesion。精确率用于衡量在所有被预测为正类的样本中实际上属于正类的比例通常也被称为查准率。
@ -254,15 +254,14 @@ $$
\text{Precesion} = \frac{\text{TP}}{\text{TP} + \text{FP}}
$$
上面的例子,模型预测的精确率为: $\small{\frac{80}{80 + 30} = \frac{80}{110} = 0.73}$ 。
上面的例子,模型预测的精确率为: $\frac{80}{80 + 30} = \frac{80}{110} = 0.73$ 。
3. **召回率**Recall。召回率用于衡量在所有实际为正类的样本中被模型正确预测为正类的比例通常也被称为查全率或真正例率True Positive Rate
$$
\text{Recall} = \frac{\text{TP}}{\text{TP} + \text{FN}}
$$
上面的例子,模型预测的召回率为: $\small{\frac{80}{80 + 20} = \frac{80}{100} = 0.8}$ 。
上面的例子,模型预测的召回率为: $\frac{80}{80 + 20} = \frac{80}{100} = 0.8$ 。
4. **F1 分数**F1 Score。F1 分数是精确率和召回率的调和平均数,它在精确率和召回率之间寻求一个平衡,尤其适用于在两者之间有权衡的情况。
@ -270,19 +269,16 @@ $$
\text{F1 Score} = \frac{2}{\frac{1}{\text{Precision}} + \frac{1}{\text{Recall}}} = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precesion} + \text{Recall}}
$$
上面的例子模型预测的F1 分数为: $\small{2 \times \frac{0.7273 * 0.8}{0.7273 + 0.8} = 0.76}$ 。
上面的例子模型预测的F1 分数为: $2 \times \frac{0.7273 * 0.8}{0.7273 + 0.8} = 0.76$ 。
5. **特异度**Specificity和**假正例率**False Positive Rate简称 FPR。特异度用于衡量的是在所有实际为负类的样本中被模型正确预测为负类的比例类似于召回率只不过针对的是负类样本。
$$
\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}}
$$
$$
\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}} \\\\
\text{FPR} = 1 - \text{Specificity}
$$
上面的例子,模型预测的特异度为: $\small{\frac{870}{870 + 30} = \frac{870}{900} = 0.97}$ 。
上面的例子,模型预测的特异度为: $\frac{870}{870 + 30} = \frac{870}{900} = 0.97$ 。
6. **ROC****AUC**

View File

@ -15,7 +15,7 @@ $$
回到上面李女士购买飞机延误险的例子假设本次航班是从成都双流国际机场飞往北京首都国际机场执飞的航空公司是四川航空起飞地天气为雨天小雨温度为8°C东北风2级降落地天气为晴天温度4°C西北风2级。为了更简单的让大家理解贝叶斯定理我们对这里的条件稍作简化只保留天气中的降水信息暂不考虑温度和风速等其他因素对应到上面的贝叶斯定理有
$$
P(延误 \vert 起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航) = \\
P(延误 \vert 起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航) = \\\\
\frac{P(起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航 \vert 延误)}{P(起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航)} \cdot P(延误)
$$

View File

@ -106,7 +106,7 @@ $$
梯度下降法通过以下更新规则来更新参数 $\small{\mathbf{\beta}}$
$$
\mathbf{\beta}^{\prime} = \mathbf{\beta} - \alpha \nabla L(\mathbf{\beta}) \\
\mathbf{\beta}^{\prime} = \mathbf{\beta} - \alpha \nabla L(\mathbf{\beta}) \\\\
\mathbf{\beta} = \mathbf{\beta^{\prime}}
$$

View File

@ -67,7 +67,7 @@ $$
其中, $\small{\text{sign}}$ 是符号函数,其定义如下所示:
$$
\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\ -1 \ (z \lt 0) \end{cases}
\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\\\ -1 \ (z \lt 0) \end{cases}
$$
例如,有 3 个弱学习器 $\small{h_{1}(x)}$、 $\small{h_{2}(x)}$、 $\small{h_{3}(x)}$,它们的输出分别是`+1`、`-1`和`+1`,对应的权重是 $\small{\alpha_{1} = 0.5}$、 $\small{\alpha_{2} = 0.3}$、 $\small{\alpha_{3} = 0.2}$ ,那么加权和为:

View File

@ -76,7 +76,7 @@ $$
4. Leaky ReLU 函数
$$
f(x) = \begin{cases} x & (x \gt 0) \\ {\alpha}x & (x \le 0)\end{cases}
f(x) = \begin{cases} x & (x \gt 0) \\\\ {\alpha}x & (x \le 0)\end{cases}
$$
- **特点**Leaky ReLU 是对 ReLU 的改进,它为输入小于零的部分引入了一个小的负斜率(通常取值 $\small{\alpha = 0.01}$ ),使得梯度不为零。
@ -94,10 +94,7 @@ $$
对于神经网络模型来说还有一个极其重要的操作就是通过计算损失函数相对于每个权重和偏置的梯度来更新神经网络的参数权重和偏置这一过程通常称为反向传播back-propagation。反向传播有两个要点一个是损失函数一个是梯度下降法前者用于衡量预测值与真实值之间的差距常用的损失函数有均方误差回归任务和交叉熵损失函数分类任务后者通过更新参数 $\small{\theta}$(权重和偏置),使得损失函数最小化,即:
$$
\theta^{\prime} = \theta - \eta \nabla L(\theta)
$$
$$
\theta^{\prime} = \theta - \eta \nabla L(\theta) \\\\
\theta = \theta^{\prime}
$$

View File

@ -1,5 +1,9 @@
## 更新日志
### 2025年2月14日
1. 解决了数学公式无法显示的问题。
### 2025 年1月30日
1. 更新了第01-20天《Python语言基础》部分的内容。