By Z.H. Fu 
https://fuzihaofzh.github.io/blog/ 
## 摘要
本文主要从分解形式上讲述了PCA(Principal Component Analysis,主成分分析)和SVD(Singular Value Decomposition奇异值分解)的目的和方法,对于两种方法都给出了一种直观的理解。简单起见,本文不给出具体的应用实例。
## PCA
主成分分析(PCA)常用于提取一系列多维样本的共同特征。那么,怎么理解特征?我们假设每个样本是由一系列的特征线性组合而成的,PCA的目的就是去找到这些特征,然后将每一个样本表示为这些特征的组合,实际上PCA找到了样本空间中的一组基,将每一个样本表示为这组基的线性组合,因此,每一个基就是一个特征。那么,特征需要满足哪些性质呢?其实就一点,特征之间的关系应该越少越好。用基来描述就是这应该是一组正交基。下面我们来看该怎么构造这组基。

我们假设我们的样本矩阵为$A_{m\times n}$每一行为一个样本,共m个样本,每一列是一个特征,共n个特征。我们来看怎么刻画特征不相关这个事情。我们可以看两个随机变量不相关是怎么刻画的,两个随机变量不相关,即他们的协方差为0,即:
$$cov(X,Y) = E([X-E[X]][Y-E[Y]) = 0$$
这启发我们,能不能通过某个线性变换,将样本矩阵变换为一个新矩阵,让新矩阵的每一列不相关,那么为了表示矩阵每一列不相关这个事,我们要先做一个简化,先来考虑均值为0的两个随机变量$X,Y$,那么他们的协方差可表示为:
$$cov(X,Y) = E([X-0][Y-0]) = E(XY)$$
即点乘为0,因此我们先求出每一列的均值并将均值归为0(即每一列的所有元素减去当前列的均值)。这样矩阵A通过某个线性变换得出的新矩阵B的每一列都正交,用矩阵表示即为:
$$B^TB=D$$
其中,D是一个对角阵。
那么我们假设这个变换是$AM=B$,将这个带入得:
$$\begin{align}
(AM)^T(AM)=D \\
M^TA^TAM=D \\
A^TA=(M^T)^{-1}DM^{-1}
\end{align}$$
而我们知道$A^TA$是一个对角阵,那么它的特征值分解$A^TA=VDV^{-1}$中的V是正交单位阵,那么有$V^T=V^{-1}$,那么这个V就满足我们对M的要求。
所以,我们对矩阵A做PCA的步骤就是:
1.将A的每一列按均值做归一化,使归一化后的A的每一列均值为0;A T A A^TA A T A D = d i a g { λ 1 , λ 2 , ⋯   , λ n } D=diag\{\lambda_1,\lambda_2,\cdots,\lambda_n\} D = d i a g { λ 1  , λ 2  , ⋯ , λ n  } B = A V B=AV B = A V 
 
这个矩阵B就是我们需要的新矩阵,它的每一列均值为0,且每一列正交,而A = B V T A=BV^T A = B V T V T V^T V T 
SVD(Singular Value Decomposition奇异值分解)是一种矩阵分解的方法,目的很明确,就是将矩阵A分解为三个矩阵U Σ V T U\Sigma V^T U Σ V T A = B V T A=BV^T A = B V T B = U Σ B=U\Sigma B = U Σ Σ = d i a g { σ 1 , σ 2 , ⋯   , σ n } \Sigma=diag\{\sigma_1,\sigma_2,\cdots,\sigma_n\} Σ = d i a g { σ 1  , σ 2  , ⋯ , σ n  } σ 1 > σ 2 > ⋯ > σ n \sigma_1>\sigma_2>\cdots>\sigma_n σ 1  > σ 2  > ⋯ > σ n  A v i Av_i A v i  v i v_i v i  A T A A^TA A T A λ i \lambda_i λ i  A v i Av_i A v i  
\begin{align}
(Av_i)^TAv_i & = (Av_i)^TAv_i \\
& = v_i^TA^TAv_i \\
& = v_i^TA^TAv_i \\
& = v_i^T\lambda_iv_i \\
& = \lambda_iv_i^Tv_i \\
& = \lambda_i \\
\end{align}
所以有∣ A v i ∣ = λ i |Av_i|=\sqrt{\lambda_i} ∣ A v i  ∣ = λ i   B = U Σ B=U\Sigma B = U Σ Σ \Sigma Σ σ i = λ i \sigma_i=\sqrt{\lambda_i} σ i  = λ i   m > n m>n m > n u i = A v i σ i u_i=\frac{Av_i}{\sigma_i} u i  = σ i  A v i   u i u_i u i  
A T A = ( U Σ V T ) T U Σ V T = V Σ U T U Σ V T = V Σ 2 V T A^TA=(U\Sigma V^T)^TU\Sigma V^T=V\Sigma U^TU\Sigma V^T=V\Sigma^2 V^T
 A T A = ( U Σ V T ) T U Σ V T = V Σ U T U Σ V T = V Σ 2 V T 
可以看出,中间那个U消掉了,这也能部分反映SVD和PCA间的关系。
[1] http://www.math.umn.edu/~lerman/math5467/svd.pdf