forked from shunliz/Machine-Learning
-
Notifications
You must be signed in to change notification settings - Fork 0
/
xian-xing-pan-bie-fen-xi-lda.md
161 lines (81 loc) · 12.9 KB
/
xian-xing-pan-bie-fen-xi-lda.md
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
# 线性判别分析LDA原理总结
---
在[主成分分析(PCA)原理总结](/ml/clean-feature/pca.md)中,我们对降维算法PCA做了总结。这里我们就对另外一种经典的降维方法线性判别分析(Linear Discriminant Analysis, 以下简称LDA)做一个总结。LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用,因此我们有必要了解下它的算法原理。
在学习LDA之前,有必要将其自然语言处理领域的LDA区别开来,在自然语言处理领域, LDA是隐含狄利克雷分布(Latent Dirichlet Allocation,简称LDA),他是一种处理文档的主题模型。我们本文只讨论线性判别分析,因此后面所有的LDA均指线性判别分析。
# 1. LDA的思想
LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。LDA的思想可以用一句话概括,就是“投影后类内方差最小,类间方差最大”。什么意思呢? 我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。
可能还是有点抽象,我们先看看最简单的情况。假设我们有两类数据 分别为红色和蓝色,如下图所示,这些数据特征是二维的,我们希望将这些数据投影到一维的一条直线,让每一种类别数据的投影点尽可能的接近,而红色和蓝色数据中心之间的距离尽可能的大。
![](http://images2015.cnblogs.com/blog/1042406/201701/1042406-20170103121629034-435985945.png)
上图中国提供了两种投影方式,哪一种能更好的满足我们的标准呢?从直观上可以看出,右图要比左图的投影效果好,因为右图的黑色数据和蓝色数据各个较为集中,且类别之间的距离明显。左图则在边界处数据混杂。以上就是LDA的主要思想了,当然在实际应用中,我们的数据是多个类别的,我们的原始数据一般也是超过二维的,投影后的也一般不是直线,而是一个低维的超平面。
在我们将上面直观的内容转化为可以度量的问题之前,我们先了解些必要的数学基础知识,这些在后面讲解具体LDA原理时会用到。
# 2. 瑞利商(Rayleigh quotient)与广义瑞利商(genralized Rayleigh quotient)
我们首先来看看瑞利商的定义。瑞利商是指这样的函数$$R(A,x):R(A,x) = \frac{x^HAx}{x^Hx}$$
其中x为非零向量,而A为$$n \times n$$的Hermitan矩阵。所谓的Hermitan矩阵就是满足共轭转置矩阵和自己相等的矩阵,即$$A^H=A$$。如果我们的矩阵A是实矩阵,则满足$$A^T=A$$的矩阵即为Hermitan矩阵。
瑞利商R\(A,x\)有一个非常重要的性质,即它的最大值等于矩阵A最大的特征值,而最小值等于矩阵A的最小的特征值,也就是满足$$\lambda_{min} \leq \frac{x^HAx}{x^Hx} \leq \lambda_{max}$$
具体的证明这里就不给出了。当向量x是标准正交基时,即满足$$x^Hx=1$$时,瑞利商退化为:$$R(A,x) = x^HAx$$,这个形式在谱聚类和PCA中都有出现。
以上就是瑞利商的内容,现在我们再看看广义瑞利商。广义瑞利商是指这样的函数$$R(A,B,x):R(A,x) = \frac{x^HAx}{x^HBx}$$
其中x为非零向量,而A,B为$$n \times n$$的Hermitan矩阵。B为正定矩阵。它的最大值和最小值是什么呢?其实我们只要通过将其通过标准化就可以转化为瑞利商的格式。我们令$$x_n=B^{-1/2}x$$,则分母转化为:$$x^HBx = x_n^H(B^{-1/2})^HBB^{-1/2}x_n = x_n^HB^{-1/2}BB^{-1/2}x_n = x_n^Hx_n$$
而分子转化为:$$x^HAx = x_n^HB^{-1/2}AB^{-1/2}x_n$$
此时我们的R\(A,B,x\)转化为$$R(A,B,x_n):R(A,B,x_n) = \frac{x_n^HB^{-1/2}AB^{-1/2}x_n}{x_n^Hx_n}$$
利用前面的瑞利商的性质,我们可以很快的知道,R\(A,B,x\)的最大值为矩阵$$B^{-1/2}AB^{-1/2}$$的最大特征值,或者说矩阵$$B^{-1}A$$的最大特征值,而最小值为矩阵$$B^{-1}A$$的最小特征值。如果你看过我写的[谱聚类(spectral clustering)原理总结](/ml/cluster/spectral.md)第6.2节的话,就会发现这里使用了一样的技巧,即对矩阵进行标准化。
# 3. 二类LDA原理
现在我们回到LDA的原理上,我们在第一节说讲到了LDA希望投影后希望同一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大,但是这只是一个感官的度量。现在我们首先从比较简单的二类LDA入手,严谨的分析LDA的原理。
假设我们的数据集$$D={(x_1,y_1), (x_2,y_2), ...,((x_m,y_m))}$$,其中任意样本$$x_i$$为n维向量,$$y_i \in {0,1}$$。我们定义$$N_j(j=0,1)$$为第j类样本的个数,$$X_j(j=0,1)$$为第j类样本的集合,而$$\mu_j(j=0,1)$$为第j类样本的均值向量,定义$$\Sigma_j(j=0,1)$$为第j类样本的协方差矩阵。
$$\mu_j$$的表达式为:$$\mu_j = \frac{1}{N_j}\sum\limits_{x \in X_j}x\;\;(j=0,1)$$
$$\Sigma_j$$的表达式为:$$\Sigma_j = \sum\limits_{x \in X_j}(x-\mu_j)(x-\mu_j)^T\;\;(j=0,1)$$
由于是两类数据,因此我们只需要将数据投影到一条直线上即可。假设我们的投影直线是向量w,则对任意一个样本本$$x_i$$,它在直线w的投影为$$w^Tx_i$$,对于我们的两个类别的中心点$$\mu_0,\mu_1$$,在在直线w的投影为$$w^T\mu_0$$和$$w^T\mu_1$$。由于LDA需要让不同类别的数据的类别中心之间的距离尽可能的大,也就是我们要最大化$$||w^T\mu_0-w^T\mu_1||_2^2$$,同时我们希望同一种类别数据的投影点尽可能的接近,也就是要同类样本投影点的协方差$$w^T\Sigma_0w$$和$$w^T\Sigma_1w$$尽可能的小,即最小化$$w^T\Sigma_0w+w^T\Sigma_1w$$。综上所述,我们的优化目标为:$$arg\;max(w)
\;\;J(w) = \frac{||w^T\mu_0-w^T\mu_1||_2^2}{w^T\Sigma_0w+w^T\Sigma_1w} = \frac{w^T(\mu_0-\mu_1)(\mu_0-\mu_1)^Tw}{w^T(\Sigma_0+\Sigma_1)w}$$
我们一般定义类内散度矩阵$$S_w$$为:$$S_w = \Sigma_0 + \Sigma_1 = \sum\limits_{x \in X_0}(x-\mu_0)(x-\mu_0)^T + \sum\limits_{x \in X_1}(x-\mu_1)(x-\mu_1)^T$$
同时定义类间散度矩阵$$S_b$$为:$$S_b = (\mu_0-\mu_1)(\mu_0-\mu_1)^T$$
这样我们的优化目标重写为:$$arg\;max(w)\;\;J(w) = \frac{w^TS_bw}{w^TS_ww}$$
仔细一看上式,这不就是我们的广义瑞利商嘛!这就简单了,利用我们第二节讲到的广义瑞利商的性质,我们知道我们的J\(w\)最大值为矩阵$$S_w^{-1}S_b$$的最大特征值,而对应的w为$$S_w^{-1}S_b$$的最大特征值对应的特征向量!
注意到对于二类的时候,$$S_bw$$的方向恒为$$\mu_0-\mu_1$$,不妨令$$S_bw=\lambda(\mu_0-\mu_1)$$,将其带入:$$(S_w^{-1}S_b)w=\lambda w$$,可以得到$$w=S_w^{-1}(\mu_0-\mu_1)$$, 也就是说我们只要求出原始二类样本的均值和方差就可以确定最佳的投影方向w了。
# 4. 多类LDA原理
有了二类LDA的基础,我们再来看看多类别LDA的原理。
假设我们的数据集$$D={(x_1,y_1), (x_2,y_2), ...,((x_m,y_m))}$$,其中任意样本$$x_i$$为n维向量,$$y_i \in {C_1,C_2,...,C_k}$$。我们定义$$N_j(j=1,2...k)$$为第j类样本的个数,$$X_j(j=1,2...k)$$为第j类样本的集合,而$$\mu_j(j=1,2...k)$$为第j类样本的均值向量,定义$$\Sigma_j(j=1,2...k)$$为第j类样本的协方差矩阵。在二类LDA里面定义的公式可以很容易的类推到多类LDA。
由于我们是多类向低维投影,则此时投影到的低维空间就不是一条直线,而是一个超平面了。假设我们投影到的低维空间的维度为d,对应的基向量为$$(w_1,w_2,...w_d)$$,基向量组成的矩阵为W, 它是一个$$m \times d$$的矩阵。
此时我们的优化目标应该可以变成为:$$\frac{W^TS_bW}{W^TS_wW}$$
其中$$S_b = \sum\limits_{j=1}^{k}N_j(\mu_j-\mu)(\mu_j-\mu)^T$$,$$\mu$$为所有样本均值向量。$$S_w = \sum\limits_{j=1}^{k}S_{wj} = \sum\limits_{j=1}^{k}\sum\limits_{x \in X_j}(x-\mu_j)(x-\mu_j)^T$$
但是有一个问题,就是$$W^TS_bW$$和$$W^TS_wW$$都是矩阵,不是标量,无法作为一个标量函数来优化!也就是说,我们无法直接用二类LDA的优化方法,怎么办呢?一般来说,我们可以用其他的一些替代优化目标来实现。
常见的一个LDA多类优化目标函数定义为:$$arg\;max(w)\;\;J(W) = \frac{\prod\limits_{diag}W^TS_bW}{\prod\limits_{diag}W^TS_wW}$$
其中$$\prod\limits_{diag}A$$为A的主对角线元素的乘积,W为$$m \times d$$的矩阵。
J\(W\)的优化过程可以转化为:$$J(W) = \frac{\prod\limits_{i=1}^dw_i^TS_bw_i}{\prod\limits_{i=1}^dw_i^TS_ww_i} = \prod\limits_{i=1}^d\frac{w_i^TS_bw_i}{w_i^TS_ww_i}$$
仔细观察上式最右边,这不就是广义瑞利商嘛!最大值是矩阵$$S_w^{-1}S_b$$的最大特征值,最大的d个值的乘积就是矩阵$$S_w^{-1}S_b$$的最大的d个特征值的乘积,此时对应的矩阵W为这最大的d个特征值对应的特征向量张成的矩阵。
由于W是一个利用了样本的类别得到的投影矩阵,因此它的降维到的维度d最大值为k-1。为什么最大维度不是类别数k呢?因为$$S_b$$中每个$$\mu_j-\mu$$的秩为1,因此协方差矩阵相加后最大的秩为k\(矩阵的秩小于等于各个相加矩阵的秩的和\),但是由于如果我们知道前k-1个$$\mu_j$$后,最后一个$$\mu_k$$可以由前k-1个$$\mu_j$$线性表示,因此$$S_b$$的秩最大为k-1,即特征向量最多有k-1个。
# 5. LDA算法流程
在第三节和第四节我们讲述了LDA的原理,现在我们对LDA降维的流程做一个总结。
输入:数据集$$D={(x_1,y_1), (x_2,y_2), ...,((x_m,y_m))}$$,其中任意样本$$x_i$$为n维向量,$$y_i \in {C_1,C_2,...,C_k}$$,降维到的维度d。
输出:降维后的样本集$$D'$$
1\) 计算类内散度矩阵$$S_w$$
2\) 计算类间散度矩阵$$S_b$$
3\) 计算矩阵$$S_w^{-1}S_b$$
4)计算$$S_w^{-1}S_b$$的最大的d个特征值和对应的d个特征向量$$(w_1,w_2,...w_d)$$,得到投影矩阵W
5\) 对样本集中的每一个样本特征$$x_i$$,转化为新的样本$$z_i=W^Tx_i$$
6\) 得到输出样本集$$D'={(z_1,y_1), (z_2,y_2), ...,((z_m,y_m))}$$
以上就是使用LDA进行降维的算法流程。实际上LDA除了可以用于降维以外,还可以用于分类。一个常见的LDA分类基本思想是假设各个类别的样本数据符合高斯分布,这样利用LDA进行投影后,可以利用极大似然估计计算各个类别投影数据的均值和方差,进而得到该类别高斯分布的概率密度函数。当一个新的样本到来后,我们可以将它投影,然后将投影后的样本特征分别带入各个类别的高斯分布概率密度函数,计算它属于这个类别的概率,最大的概率对应的类别即为预测类别。
由于LDA应用于分类现在似乎也不是那么流行,至少我们公司里没有用过,这里我就不多讲了。
# 6. LDA vs PCA
LDA用于降维,和PCA有很多相同,也有很多不同的地方,因此值得好好的比较一下两者的降维异同点。
首先我们看看相同点:
1)两者均可以对数据进行降维。
2)两者在降维时均使用了矩阵特征分解的思想。
3)两者都假设数据符合高斯分布。
我们接着看看不同点:
1)LDA是有监督的降维方法,而PCA是无监督的降维方法
2)LDA降维最多降到类别数k-1的维数,而PCA没有这个限制。
3)LDA除了可以用于降维,还可以用于分类。
4)LDA选择分类性能最好的投影方向,而PCA选择样本点投影具有最大方差的方向。
这点可以从下图形象的看出,在某些数据分布下LDA比PCA降维较优。
![](http://images2015.cnblogs.com/blog/1042406/201701/1042406-20170103161541097-9229554.jpg)
当然,某些某些数据分布下PCA比LDA降维较优,如下图所示:
![](http://images2015.cnblogs.com/blog/1042406/201701/1042406-20170103161913534-2145870802.png)
# 7. LDA算法小结
LDA算法既可以用来降维,又可以用来分类,但是目前来说,主要还是用于降维。在我们进行图像识别图像识别相关的数据分析时,LDA是一个有力的工具。下面总结下LDA算法的优缺点。
LDA算法的主要优点有:
1)在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识。
2)LDA在样本分类信息依赖均值而不是方差的时候,比PCA之类的算法较优。
LDA算法的主要缺点有:
1)LDA不适合对非高斯分布样本进行降维,PCA也有这个问题。
2)LDA降维最多降到类别数k-1的维数,如果我们降维的维度大于k-1,则不能使用LDA。当然目前有一些LDA的进化版算法可以绕过这个问题。
3)LDA在样本分类信息依赖方差而不是均值的时候,降维效果不好。
4)LDA可能过度拟合数据。