修正了数学公式无法显示的问题
This commit is contained in:
parent
076406a7a6
commit
c38d20884b
|
|
@ -246,7 +246,7 @@ $$
|
|||
\text{Accuracy} = \frac{\text{TP} + \text{TN}}{\text{TP} + \text{FP} + \text{FN} + \text{TN}}
|
||||
$$
|
||||
|
||||
上面的例子,模型预测的准确率为: $\small{\frac{80 + 870}{80 + 30 + 20 + 870} = \frac{950}{1000} = 0.95}$ 。
|
||||
上面的例子,模型预测的准确率为: $\frac{80 + 870}{80 + 30 + 20 + 870} = \frac{950}{1000} = 0.95$ 。
|
||||
|
||||
2. **精确率**(Precesion)。精确率用于衡量在所有被预测为正类的样本中,实际上属于正类的比例,通常也被称为查准率。
|
||||
|
||||
|
|
@ -254,15 +254,14 @@ $$
|
|||
\text{Precesion} = \frac{\text{TP}}{\text{TP} + \text{FP}}
|
||||
$$
|
||||
|
||||
上面的例子,模型预测的精确率为: $\small{\frac{80}{80 + 30} = \frac{80}{110} = 0.73}$ 。
|
||||
上面的例子,模型预测的精确率为: $\frac{80}{80 + 30} = \frac{80}{110} = 0.73$ 。
|
||||
|
||||
3. **召回率**(Recall)。召回率用于衡量在所有实际为正类的样本中,被模型正确预测为正类的比例,通常也被称为查全率或真正例率(True Positive Rate)。
|
||||
|
||||
$$
|
||||
\text{Recall} = \frac{\text{TP}}{\text{TP} + \text{FN}}
|
||||
$$
|
||||
|
||||
上面的例子,模型预测的召回率为: $\small{\frac{80}{80 + 20} = \frac{80}{100} = 0.8}$ 。
|
||||
上面的例子,模型预测的召回率为: $\frac{80}{80 + 20} = \frac{80}{100} = 0.8$ 。
|
||||
|
||||
4. **F1 分数**(F1 Score)。F1 分数是精确率和召回率的调和平均数,它在精确率和召回率之间寻求一个平衡,尤其适用于在两者之间有权衡的情况。
|
||||
|
||||
|
|
@ -270,19 +269,16 @@ $$
|
|||
\text{F1 Score} = \frac{2}{\frac{1}{\text{Precision}} + \frac{1}{\text{Recall}}} = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precesion} + \text{Recall}}
|
||||
$$
|
||||
|
||||
上面的例子,模型预测的F1 分数为: $\small{2 \times \frac{0.7273 * 0.8}{0.7273 + 0.8} = 0.76}$ 。
|
||||
上面的例子,模型预测的F1 分数为: $2 \times \frac{0.7273 * 0.8}{0.7273 + 0.8} = 0.76$ 。
|
||||
|
||||
5. **特异度**(Specificity)和**假正例率**(False Positive Rate,简称 FPR)。特异度用于衡量的是在所有实际为负类的样本中,被模型正确预测为负类的比例,类似于召回率,只不过针对的是负类样本。
|
||||
|
||||
$$
|
||||
\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}}
|
||||
$$
|
||||
|
||||
$$
|
||||
\text{Specificity} = \frac{\text{TN}}{\text{TN} + \text{FP}} \\\\
|
||||
\text{FPR} = 1 - \text{Specificity}
|
||||
$$
|
||||
|
||||
上面的例子,模型预测的特异度为: $\small{\frac{870}{870 + 30} = \frac{870}{900} = 0.97}$ 。
|
||||
上面的例子,模型预测的特异度为: $\frac{870}{870 + 30} = \frac{870}{900} = 0.97$ 。
|
||||
|
||||
6. **ROC** 和 **AUC**。
|
||||
|
||||
|
|
|
|||
|
|
@ -15,7 +15,7 @@ $$
|
|||
回到上面李女士购买飞机延误险的例子,假设本次航班是从成都双流国际机场飞往北京首都国际机场,执飞的航空公司是四川航空,起飞地天气为雨天(小雨),温度为8°C,东北风2级,降落地天气为晴天,温度4°C,西北风2级。为了更简单的让大家理解贝叶斯定理,我们对这里的条件稍作简化,只保留天气中的降水信息,暂不考虑温度和风速等其他因素,对应到上面的贝叶斯定理有:
|
||||
|
||||
$$
|
||||
P(延误 \vert 起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航) = \\
|
||||
P(延误 \vert 起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航) = \\\\
|
||||
\frac{P(起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航 \vert 延误)}{P(起飞机场=双流,到达机场=首都,起飞天气=小雨,降落天气=晴天,执飞航司=川航)} \cdot P(延误)
|
||||
$$
|
||||
|
||||
|
|
|
|||
|
|
@ -106,7 +106,7 @@ $$
|
|||
梯度下降法通过以下更新规则来更新参数 $\small{\mathbf{\beta}}$ :
|
||||
|
||||
$$
|
||||
\mathbf{\beta}^{\prime} = \mathbf{\beta} - \alpha \nabla L(\mathbf{\beta}) \\
|
||||
\mathbf{\beta}^{\prime} = \mathbf{\beta} - \alpha \nabla L(\mathbf{\beta}) \\\\
|
||||
\mathbf{\beta} = \mathbf{\beta^{\prime}}
|
||||
$$
|
||||
|
||||
|
|
|
|||
|
|
@ -67,7 +67,7 @@ $$
|
|||
其中, $\small{\text{sign}}$ 是符号函数,其定义如下所示:
|
||||
|
||||
$$
|
||||
\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\ -1 \ (z \lt 0) \end{cases}
|
||||
\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\\\ -1 \ (z \lt 0) \end{cases}
|
||||
$$
|
||||
|
||||
例如,有 3 个弱学习器 $\small{h_{1}(x)}$、 $\small{h_{2}(x)}$、 $\small{h_{3}(x)}$,它们的输出分别是`+1`、`-1`和`+1`,对应的权重是 $\small{\alpha_{1} = 0.5}$、 $\small{\alpha_{2} = 0.3}$、 $\small{\alpha_{3} = 0.2}$ ,那么加权和为:
|
||||
|
|
|
|||
|
|
@ -76,7 +76,7 @@ $$
|
|||
4. Leaky ReLU 函数
|
||||
|
||||
$$
|
||||
f(x) = \begin{cases} x & (x \gt 0) \\ {\alpha}x & (x \le 0)\end{cases}
|
||||
f(x) = \begin{cases} x & (x \gt 0) \\\\ {\alpha}x & (x \le 0)\end{cases}
|
||||
$$
|
||||
|
||||
- **特点**:Leaky ReLU 是对 ReLU 的改进,它为输入小于零的部分引入了一个小的负斜率(通常取值 $\small{\alpha = 0.01}$ ),使得梯度不为零。
|
||||
|
|
@ -94,10 +94,7 @@ $$
|
|||
对于神经网络模型来说,还有一个极其重要的操作就是通过计算损失函数相对于每个权重和偏置的梯度来更新神经网络的参数(权重和偏置),这一过程通常称为反向传播(back-propagation)。反向传播有两个要点,一个是损失函数,一个是梯度下降法,前者用于衡量预测值与真实值之间的差距,常用的损失函数有均方误差(回归任务)和交叉熵损失函数(分类任务),后者通过更新参数 $\small{\theta}$(权重和偏置),使得损失函数最小化,即:
|
||||
|
||||
$$
|
||||
\theta^{\prime} = \theta - \eta \nabla L(\theta)
|
||||
$$
|
||||
|
||||
$$
|
||||
\theta^{\prime} = \theta - \eta \nabla L(\theta) \\\\
|
||||
\theta = \theta^{\prime}
|
||||
$$
|
||||
|
||||
|
|
|
|||
Loading…
Reference in New Issue