线性判别分析(LDA)2021-10-24
基本原理
降维原理:组间方差大、组内方差小。

降维步骤
以二类数据为例对降维过程进行说明。首先,定义如下变量:
- 数据集:,共个样本
- 类别:,其中,样本个数为,样本个数为,
原始数据为维,在"组间方差大、组内方差小"的原则下,先降1维;
投影
使用向量对数据进行投影,并得到投影后的结果:
计算原始数据类内均值
计算投影后的样本点均值
由此可知,投影后的均值是样本中心点的投影。
定义投影后数据的方差:度量组内差异
的几何意义是反映了样本点的密集程度,值越大,投影后数据越分散,反之,越集中。
为方便后续计算,定义中间部分为:
注:的维度是 这也被称为散列矩阵(scatter matrices)。
定义(Within-class scatter matrix)为:
注:的维度是
定义投影后组间均值差异:度量组间差异
定义称为(Between-class scatter matrix):
注:的维度是 定义最终度量公式
定义优化目标
增加约束的原因:因为不做归一化的话,扩大任何倍,公式都成立,因此无法确定。
定义拉格朗日函数
求导得:
因为和为对称矩阵 解得:
可见,是矩阵的特征向量,当前可以取最大特征值对应的特征向量。
因为:
而为一个数值,假设,那么总可以对进行缩放,使得,即:
那么:
所以:
至此,只需要求出原始样本的均值和方差就可以求出最佳的方向。
参考链接
- 线性判别分析LDA原理总结 - 刘建平Pinard - 博客园 (cnblogs.com)
- 为什么线性判别分析的降维维数不能大于类别数减一? - 知乎 (zhihu.com)
- Dimensionality Reduction——LDA线性判别分析原理篇 - 知乎 (zhihu.com)
- Linear Discriminant Analysis (sebastianraschka.com)