diff --git a/Day81-90/82.k最近邻算法.md b/Day81-90/82.k最近邻算法.md index 160809f..2e522f0 100644 --- a/Day81-90/82.k最近邻算法.md +++ b/Day81-90/82.k最近邻算法.md @@ -15,19 +15,19 @@ $$ 当 $\small{p = 1}$ 时,闵氏距离退化为**曼哈顿距离**,即: $$ -d(\bold{x}, \bold{y}) = \sum_{i=1}^{n}|x_{i} - y_{i}| +d(\mathbf{x}, \mathbf{y}) = \sum_{i=1}^{n}|x_{i} - y_{i}| $$ 当 $\small{p = 2}$ 时,闵氏距离退化为**欧几里得距离**,即: $$ -d(\bold{x}, \bold{y}) = \sqrt{\sum_{i=1}^{n}(x_{i} - y_{i})^{2}} +d(\mathbf{x}, \mathbf{y}) = \sqrt{\sum_{i=1}^{n}(x_{i} - y_{i})^{2}} $$ 当 $\small{p \to \infty}$ 时,闵氏距离成为**切比雪夫距离**,即: $$ -d(\bold{x}, \bold{y}) = \underset{i}{max}(|x_{i} - y_{i}|) +d(\mathbf{x}, \mathbf{y}) = \underset{i}{max}(|x_{i} - y_{i}|) $$ 其他的距离度量方式我们等用到的时候再为大家介绍。在使用k 最近邻算法做分类时,我们的数据集通常都是数值型数据,此时直接使用欧几里得距离是一个不错的选择。