2.15.2 图解PCA核心思想 内容修订

2.15.2 图解PCA核心思想 内容修订
This commit is contained in:
CoderOverflow 2019-04-17 16:31:11 +08:00 committed by GitHub
parent f8776c4af0
commit 5a115d1c2d
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
1 changed files with 1 additions and 1 deletions

View File

@ -842,7 +842,7 @@ LDA算法降维流程如下
### 2.15.2 图解PCA核心思想
PCA可解决训练数据中存在数据特征过多或特征累赘的问题。核心思想是将m维特征映射到n维n < m这n维形成主元是重构出来最能代表原始数据的正交特征
假设数据集是m个n维$(x^{(1)}, x^{(2)}, \cdots, x^{(m)})$。如果n=2,需要降维到$n'=1$,现在想找到某一维度方向代表这两个维度的数据。下图有$u_1, u_2$两个向量方向,但是哪个向量才是我们所想要的,可以更好代表原始数据集的呢?
假设数据集是m个n维$(\boldsymbol x^{(1)}, \boldsymbol x^{(2)}, \cdots, \boldsymbol x^{(m)})$。如果$n=2$需要降维到$n'=1$,现在想找到某一维度方向代表这两个维度的数据。下图有$u_1, u_2$两个向量方向,但是哪个向量才是我们所想要的,可以更好代表原始数据集的呢?
![](./img/ch2/2.34/1.png)