Whale's Blog

想读数学专业的计算机本科生,分享一些凸优化/非凸优化,网络收敛性分析,计算机视觉,网络架构设计等相关知识

0%

Principal Component Analysis

Motivation

1.将数据维度降低到二维或者三维以便将其可视化.

2.去噪,如果数据中存在噪声,用更少的解释变量来表示,舍弃某些变量有时可以起到去噪的效果.

3.降低数据的多重共线性的影响,考虑下面这样一组数据,其中一列表示用户的工作,另一列表示用户的薪水。但工作和薪水这样两个变量之间可能存在高度的相关性,可能会导致模型参数估计不准确,而PCA是通过对解释变量进行线性变换形成新的一组基,并使新的基之间的相关系数为0,因此PCA可以有效的降低多重共线性的影响.

4.维度灾难,涉及到向量的计算的问题中,随着维数的增加,计算量呈指数倍增长的一种现象,在很多机器学习问题中,训练集中的每条数据经常伴随着上千、甚至上万个特征,因此降维是比较有效的一种数据预处理方法.

另一种说法的维度灾难是指,高维空间中数据的分布更加稀疏,想要对数据进行有效地分类更加困难,考虑下面这个例子:

考虑这样一个球壳,外部球体的半径为 $r_{out}=1$,内部球体的半径为 $r_{in}=1-\varepsilon$.

考虑维度 $\text{dim}=2$ 的情形,此时有 $V_{out}=\pi r_{out}^2$,$V_{in}=\pi r_{in}^2$.

考虑维度 $\text{dim}=n$ 的情形,此时的体积表达式如下:

其中 $k$ 为一个常数,考虑

可以发现当维度很高的时候,球壳的几乎占据了整个球体,意味着无论这个 $\varepsilon$ 有多小,数据几乎都分布在这个球壳当中,而中间空着的部分分布着极少的数据,因此高维空间中数据的分布通常更加稀疏.

Principal Component Analysis

主成分分析的本质,是对给定数据的坐标系进行线性变换,将数据投影到新的坐标系中.

假设 $\mathbf{x}=(x_1,x_2,\cdots,x_m)^\text{T}$ 为 $m$ 维随机变量,记线性变换后得到的随机变量为 $\mathbf{y}=(y_1,y_2,\cdots,y_m)^\text{T}$,线性变换的矩阵为

该线性变换表示为

PCA 的示意图如下:

主成分分析的性质如下:

(1) 矩阵 $A$ 为正交矩阵,即 $AA^\text{T}=A^\text{T}A=I$

(2) $cov(y_i,y_j)=0(i\neq j)$

(3) 变量 $y_1$ 是 $\mathbf{x}$ 的所有线性变换中方差最大的;$y_2$ 是与 $y_1$ 不相关的 $\mathbf{x}$ 的所有线性变换中方差最大的,以此类推,$y_i$ 是与 $y_1, y_2, \dots, y_{i-1}$($i = 1, 2, \dots, m$) 都不相关的 $\mathbf{x}$ 的所有线性变换中方差最大的,称 $y_1, y_2, \dots, y_m$ 为 $\mathbf{x}$ 的第一主成分,第二主成分,…… ,第 $m$ 主成分

性质 (1) 要求线性变换的矩阵 $A$ 为正交矩阵,而正交变换下内积大小不变,即意味着样本点间的距离,范数,夹角等不会发生变化,因此要求该线性变换为正交变换可以有效的保持样本点的几何性质,同时正交变换下,得到的新的坐标系的坐标轴仍是相互正交的.

性质 (2) 要求正交变换后的 $y_i$ 和 $y_j$ 之间的协方差为 $0$,减少新的基下,基之间的相关性性,这一点可以有效地降低多重共线性的影响.

性质 (3) 要求方差最大的为第一主成分,某一维的方差是所有样本到该维度坐标原点的距离平方和,方差越大表明在该坐标轴上分布越广,信息量越多.考虑一组数据全部相等的情况,这组数据方差为 $0$,由于数值均相同,这组数据对回归分类等任务没有意义,故这组数据包含的信息量极少.因此选择方差第一大,第二大的作为第一,第二主成分是合理的.

下面给出主成分分析的求解方法的推导

计算变换后的协方差矩阵 $cov(\mathbf{y},\mathbf{y})=cov(A\mathbf{x},A\mathbf{x})=A\Sigma A^\text{T}$

对矩阵 $A$ 进行行分块

下面求解最大的方差,由 $cov(y_1,y_1)=[A\Sigma A]_{11}=\alpha_1^\text{T}\Sigma \alpha_1$,可以得到下面的最优化问题

那么可以得到它的广义拉格朗日函数

显然该问题是满足 Slater 条件的凸优化问题,故求它的 KKT 条件,令梯度为 $0$ 可得

因此 $\lambda$ 为 $\Sigma$ 的特征值,$\alpha_1$ 为对应的特征向量,此时有

由于我们要求最大的特征值,因此求解第一主成分等价于求解最大的特征值 $\lambda$ 对应的特征向量 $\alpha_1$,第一主成分 $y_1=\alpha_1^\text{T}x$.

下面求解第二大的方差,由 $cov(y_2,y_2)=[A\Sigma A]_{22}=\alpha_2^\text{T}\Sigma \alpha_2$,可以得到下面的最优化问题

那么可以得到它的广义拉格朗日函数

显然该问题是满足 Slater 条件的凸优化问题,故求它的 KKT 条件,令梯度为 $0$ 可得

化简可得

左乘 $\alpha_1^\text{T}$,由 $\alpha_1^\text{T}\Sigma\alpha_2 =0$ 和 $\alpha_1^\text{T}\alpha_2 =0$,有

因此 $\mu_1$ 为 $\Sigma$ 的特征值,$\alpha_2$ 为对应的特征向量,此时有

由于我们要求最大的特征值,因此求解第二主成分等价于求解第二大的特征值 $\mu_1$ 对应的特征向量 $\alpha_2$,第二主成分 $y_2=\alpha_2^\text{T}x$.

同理,第三主成分,第四主成分等价于求解第三,第四大的特征值和其对应的特征向量,由此可以求解正交矩阵 $A$,也就可以解得主成分分析,主成分的个数选取可以参考方差贡献率,定义如下

第 $k$ 主成分 $y_k$ 的方差贡献率定义为 $y_k$ 的方差与所有方差之和的比,记作 $\eta_k$:

$k$ 个主成分 $y_1, y_2, \dots, y_k$ 的累计方差贡献率定义为 $k$ 个方差之和与所有方差之和的比:

通常取 $k$ 使得累计方差贡献率达到规定的百分比以上,累计方差贡献率反映了主成分保留信息的比例.

接下来从最大投影方差和最小重构代价的角度给出主成分分析的求解方法的推导

设样本数据表示为

其中 $m$ 表示数据量,$n$ 表示数据维数.

下面给出样本均值和样本协方差的矩阵形式

样本均值:

样本协方差:

下面给出矩阵 $H$ 的两个性质,矩阵 $H$ 为对称阵和幂等矩阵$(H^n=H)$

这里 $H$ 称为中心化矩阵,左乘 $H$ 相当于将数据减去均值,由 $H$ 的性质有

我们希望样本点在重构后的空间中的投影点可以尽可能的分离,即希望方差尽可能大,称为最大可分性、最大投影方差.

设我们所求的第一主成分方向的单位向量为 $u_1$,那么 $x_i-\bar{x}$ 在 $u_1$ 的投影可以表示为

那么目标函数为

化简得

同时有约束条件

由此可以得到和上面最优化问题相同的形式,可以采用相同的方法求解对于 $u_2,\cdots,u_m$ 同理.

我们希望样本点在重构后的空间中距离坐标轴的距离尽可能小,即可以以最小代价将投影后的数据重构回去,称为最近重构性、最小重构误差.

设重构后的空间的各个坐标轴方向的单位向量分别为

那么每个样本 $x_i$ 可以表示为

取其中的 $p$ 个主成分得到投影到这 $p$ 个主成分上的数据

那么可以得到目标函数

第二个等式成立的原因如下,记 $c_k=((x_i-\bar{x})^\text{T}u_k)$,那么

由此我们可以得到下面的最优化问题

使用拉格朗日乘子法,我们有

对 $u_k$ 求导数

得到

其中,$u_k$ 是单位特征向量,$\lambda$ 是特征值,因此目标函数变为

即非主成分的特征值从最小的开选,也就意味着选取的 $p$ 个主成分是特征值最大的 $p$ 个主成分,和上面采用其他方法分析得到的结果一致.

下面给出计算主成分分析的两种方法

由于 $S$ 是实对称矩阵,我们可以采用特征值分解(EVD):

其中,$\Lambda$ 是对角矩阵,且 $Q^T Q = I$,$Q$ 是由 $S$ 的特征向量拼成的.

另一种方法是利用奇异值分解

对 $HX$ 进行奇异值分解

其中,$\Sigma$ 是对角矩阵,$U^\text{T} U = I, V^\text{T} V = I$。

由此可以得到特征值为 $\Sigma^2$ 的对角元素,即 $S$ 的特征值,$V$ 由 $S$ 的特征向量拼成.

Singular Value Decomposition

矩阵的奇异值分解(SVD)是将非零实矩阵 $A \in \mathbb{R}^{m \times n}$ 分解为如下形式:

其中 $U$ 是 $m$ 阶正交矩阵,$V$ 是 $n$ 阶正交矩阵,$\Sigma$ 是由 $A$ 的奇异值($\sigma_i = \sqrt{\lambda_i(A^\text{T}A)}$)降序排列组成的 $m \times n$ 矩形对角矩阵,且满足

并且 $U$ 的列向量称为左奇异向量,$V$ 的列向量称为右奇异向量.

下面给出奇异值分解的计算形式:

(1) 首先求 $A^T A$ 的特征值和特征向量

计算矩阵 $W = A^T A$。
求解特征方程:

得到特征值 $\lambda_i$,并将特征值由大到小排列:

将特征值 $\lambda_i (i=1, 2, \dots, n)$ 代入特征方程求得对应的特征向量。

(2) 求 $n$ 阶正交矩阵 $V$

将特征向量单位化,得到 $v_1, v_2, \cdots, v_n$,构成 $n$ 阶正交矩阵 $V$:

(3) 求 $m \times n$ 对角矩阵 $\Sigma$

计算 $A$ 的奇异值:

构造 $m \times n$ 矩形对角矩阵 $\Sigma$,主对角线元素是奇异值,其余元素为零:

(4) 求 $m$ 阶正交矩阵 $U$

对 $A$ 的前 $r$ 个正奇异值,令

得到

求 $A^\text{T}$ 的零空间的一组标准正交基 $\{u_{r+1}, u_{r+2}, \dots, u_m\}$,令

(5) 得到奇异值分解

同时奇异值分解的存在性可以通过上述计算过程构造性证明.

Optimization View

设 $X$ 为数据样本的规范化矩阵,则主成分等价于求解下面的最优化问题:

这里 $k$ 是主成分个数.Frobenius 范数的定义为

$Proof.$ 首先证明奇异值分解是秩 $k$ 矩阵中对原矩阵的最佳逼近.设奇异值分解的形式为 $A=\sum_1^r\sigma_iu_iv_i^\text{T}$,其中$rank(A) = r$,$\sigma_i$ 按不增排序,现在取奇异值分解中的前 $k$ 项,$A_k=\sum_1^r\sigma_iu_iv_i^\text{T}$.
下证,对于任意的秩 $k$ 矩阵 $A’$,都有 $|A-A_k|_F\leq|A-A’|_F$.
秩 $1$ 情形:此时问题变成了寻找一个秩 $1$ 矩阵 $\hat{A}=\hat{\sigma}\hat{u}\hat{v}^\text{T}$ 来最小化 $|A-\hat{A}|_F$

故,目标函数变为

将 $A$ 和 $\hat{A}$ 的奇异值分解形式代入

展开后可得

由 $\text{Tr}(ABC)=\text{Tr}(BCA)=\text{Tr}(CAB)$,对目标函数进行化简

由此可以得到下面的优化问题

考虑它的广义拉格朗日函数

先对 $\hat{u}$ 和 $\hat{v}$ 优化,令梯度为0可得

化简得

把下式中的 $\hat{v}$ 代入上式可得:

两边同时取左乘一个 $A$ 的基向量 $u_k^T$,由于 $u$ 之间的正交性:

该式对任意 $k$ 都成立,而 $\hat{\sigma} > 0,\sigma_k > 0$,若 $\sigma_k$ 各不相同,$u_1, u_2, \dots, u_m$ 是 $A$ 的列空间的一组标准正交基,故不存在这样一个向量 $\hat{u}$ 使得对任意 $k$,有 $u_k^T \hat{u} = 0$,因此对于存在唯一一个 $k’$ 满足 $\lambda_1
\lambda_2 = \sigma^2 \sigma_{k’}^2$,其余 $k \neq k’$ 都是因为 $u_k^T \hat{u} = 0$ 才使得式子成立.

因此 $\hat{u}$ 一定与标准正交基中的一个向量同向,且由于模长为 $1$,存在 $k = t$,使得 $\hat{u} = u_t$,同样对于 $\hat{v}$ 我们有 $\hat{v} = v_t$.

通过上面的分析,$\hat{u}$ 和 $\hat{v}$ 必然与一组 $u_t$,$v_t$ 相同,代入到原来的目标函数中:

显然,此时 $\sigma$ 取最大奇异值 $\sigma_t$ 相应的基向量为 $u_t, v_t$,使目标函数达到最小值 $-\sigma_t^2$.

由于前面假设了 $\sigma_k$ 各不相同,若存在多个相同的 $\sigma_{k1}, \sigma_{k2}, \cdots, \sigma_{kp}$,仅需要取 $\hat{u}$ 为 $\sigma_{k1}, \sigma_{k2}, \cdots, \sigma_{kp}$ 对应的基向量 $u_{k1}, u_{k2}, \cdots, u_{kp}$ 的线性组合即可,代入到原来的目标函数中可以得到与 $\sigma_k$ 各不相同的情况下进行分析相同的结果.

上面是对秩 $1$ 的情形分析,对于秩 $k$ 情形,每次寻找一组$(\sigma, \hat{u}, \hat{v})$,寻找第 $l$ 组时必须要与前 $l-1$ 组全部正交,所以在这个式子中:

已经选择过的基向量由正交性会自动消掉,最终选择奇异值最小化 $-\sigma_t^2$ 时,每一次都选择剩下的奇异值中最大的那个.

因此秩 $k$ 情形下选择的就是最大的前 $k$ 个奇异值以及其对应的基向量.

因此 SVD 等价于秩 $k$ 矩阵的最佳逼近,而 PCA 可以通过 SVD 来完成,故等价于该优化问题的求解过程.

Probabilistic PCA