机器学习中的降维方法综述
更新时间:2024-06-19 04:40:01 阅读量: 综合文库 文档下载
- 机器学习算法推荐度:
- 相关推荐
上海大学2014~2015学年春季学期研究生课程考试
文献阅读报告
课程名称: 模式识别与机器学习 课程编号: 07SBE9004
论文题目: 机器学习中的数据降维方法
研究生姓名: 廖 宇 学 号: 14723542
评语:
成 绩: 任课教师:
评阅日期:
机器学习中的数据降维方法
1.引言
随着科技的进步,尤其是数据采集和存储技术的飞速发展,不同行业和领域的数据如航天遥感数据,生物数据,网络数据以及金融市场交易数据等大量涌现,意味着大数据时代的来临。如何从复杂多样,变化迅速的大数据中有效地挖掘和提炼人类感兴趣的信息,对数据进行分析和建立模型,成为了一个热门话题。
机器学习是近20多年兴起的一种从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法,其大量的应用都与大数据高度耦合,是一种十分适用于大数据环境下的算法。从实践的意义上来说,机器学习是一种通过利用数据,训练出模型,然后使用模型预测的一种方法。
在机器学习算法中,降维算法是重要的一部分。由于机器学习算法在处理数据或特征时, 过高的维数空间会包含有冗余信息以及噪音信息,在实际应用例如图像识别中造成了误差,降低了准确率,因此需要通过降维算法来减少冗余信息所造成的误差,提高识别的精度。另外,通过降维算法还可以寻找数据内部的本质结构特征,以及加速后续计算的速度,解决数据的稀疏问题等。
2.数据降维方法
2.1 主成分分析(PCA) 主成分分析(PCA)是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。 通俗的理解,如果把所有的点都映射到一起,那么几乎所有的信息,如点和点之间的距离关系会丢失掉,而如果映射后方差尽可能的大,那么数据点则会分散开来,以此来保留更多的信息。可以证明,PCA是丢失原始数据信息最少的一种线性降维方式。设n维向量w为目标子空间的一个坐标轴方向(称为映射向量),最大化数据映射后的方差,有:
其中m是数据实例的个数, Xi是数据实例i的向量表达, X是所有数据实例的平均向量。定义W为包含所有映射向量为列向量的矩阵,经过线性代数变换,可以得到如下优化目标函数:
1mT2max(W(X?X))?i (1) wm?1i?1mintr(WTAW),
Ws.t. WTW?I (2)
其中tr表示矩阵的迹, 1mTA?(X?X)(X?X)?ii (3) m?1i?1A是数据协方差矩阵。容易得到最优的W是由数据协方差矩阵前k个最大的特征值对应的特征向量作为列向量构成的。这些特征向量形成一组正交基并且最好地保留了数据中的信息。 PCA的输出就是Y = W’ X,由X的原始维度降低到了k维。PCA追求的是在降维之后能够最大化保持数据的内在信息,并通过衡量在投影方向上的数据方差的大小来衡量该方向的重要性。但是这样投影以后对数据的区分作用并不大,反而可能使得数据点揉杂在一起无法区分。这也是PCA存在的最大一个问题,这导致其在某些情况下的分类效果并不好。
2.2 线性判别分析(LDA)
线性判别分析(LDA)是R.Fisher于1936年提出来的,也叫做Fisher’s Linear
Discriminant[1]。LDA是一种有监督的线性降维算法。与PCA类似,LDA也要寻找一组投影向量,并将高维数据投影到低维空间以实现数据的降维。与PCA不同的是,LDA要使得原始数据投影到该低维空间后,不同类的数据尽可能地分开,同类的数据尽可能地紧凑,也就是在最小均方议一下选择能够最好分开各类数据的低维特征。由于数据降维的过程含有数据的判别信息,LDA所得到的低维特征更有利于分类。因此,LDA是目前在机器学习领域经典的一个方法。将LDA与PCA相比较的话,两者的动机不同,因此对于相同的数据所寻找的投影向量也不尽相同,PCA在投影方向可以最大程度地保留原始数据信息,而LDA的投影方向更有利于区分两类数据,
(加入LDA的计算过程)
3.总结与展望
1901年K.Pearson首次提出了主成分分析这个概念[i],1933年H.Hotelling 完善了其数学基础,所以PCA又称为Hotelling变换。PCA的目的是将原始变量转换为一小部分反映事物主要性质的变量,也就是主成分。从而将数据从高维空间投影到低维空间,并且保证投影后的低维数据能够在最小平方意义下最优地描述原有高维数据。PCA的各个主成分可通过求解基于数据协方差矩阵的特征向量得到。PCA的这些特点使得它成为分析多元数据的重要工具之一,并且在模式识别中得到广泛应用。例如,基于PCA的特征脸方法(Eigenfaces)方法已被证明在人脸识别中是相当成功的。众多研究者在此基础上进一步提出了许多扩展和变化方法,其中有代表性的有与和方法相结合得到的核主成分分析(Kernel Principal Component Analysis, KPCA)、结合稀疏学习的稀疏主成分分析(Sparse Principal Component Analysis, SPCA)、概率主成分分析(Probabilistic Principal Component Analysis, PPCA)、可有效处理二维图像的二维主成分分析(2-Dimensional Principal Component Analysis, 2DPCA)、局部主成分分析(Local Principal Component Analysis, LPCA)等。 []
Turk M, Pentland A. Eigenfaces for recognition[J]. Journal of cognitive neuroscience, 1991, 3(1): 71-86. []
Sch?lkopf B, Smola A, Müller K R. Nonlinear component analysis as a kernel eigenvalue problem[J]. Neural computation, 1998, 10(5): 1299-1319. []
Zou H, Hastie T, Tibshirani R. Sparse principal component analysis[J]. Journal of computational and graphical statistics, 2006, 15(2): 265-286.
[i]
[1]
Fisher R A. The use of multiple measurements in taxonomic problems[J]. Annals of eugenics, 1936, 7(2): 179-188.
正在阅读:
机器学习中的降维方法综述06-19
公司法相关知识点对比总结08-29
烟草企业坚持两个利益至上树立五种意识10-30
Delphi编程规范06-01
操作系统原理复习题给学生10-16
妈妈的菜园作文800字06-24
教育学原理专业硕士研究生培养方案01-19
农业普查简报05-21
驱逐舰 - 图文05-17
跆拳道就业可行性分析报告11-01
- 多层物业服务方案
- (审判实务)习惯法与少数民族地区民间纠纷解决问题(孙 潋)
- 人教版新课标六年级下册语文全册教案
- 词语打卡
- photoshop实习报告
- 钢结构设计原理综合测试2
- 2014年期末练习题
- 高中数学中的逆向思维解题方法探讨
- 名师原创 全国通用2014-2015学年高二寒假作业 政治(一)Word版
- 北航《建筑结构检测鉴定与加固》在线作业三
- XX县卫生监督所工程建设项目可行性研究报告
- 小学四年级观察作文经典评语
- 浅谈110KV变电站电气一次设计-程泉焱(1)
- 安全员考试题库
- 国家电网公司变电运维管理规定(试行)
- 义务教育课程标准稿征求意见提纲
- 教学秘书面试技巧
- 钢结构工程施工组织设计
- 水利工程概论论文
- 09届九年级数学第四次模拟试卷
- 综述
- 机器
- 方法
- 学习
- 烟草行业数据中心数据建模规范-中国烟草标准化
- 高中化学总复习知识总汇资料
- 新视野大学英语4课后翻译1-6
- S版小学语文五年级上学期期末考试题
- 基于图像处理的车牌识别系统的研究
- 龙门吊拆卸方案45吨
- 马克思主义基本原理概论期末模拟试卷及答案
- 实验六 windows编程
- 《我用线条来作画》教学设计
- Word2003基础教程
- 实践报告内容模板1
- 2012年计算机二级公共基础知识软件工程基础要点
- 学前班拼音抽测试1
- 《2.2 整式的加减》教学设计
- 驾照考试理论过关强化训练大全 - 图文
- 关于2013年度股份公司科学技术进步奖的公示
- 地铁特大风道进主体暗挖施工转换技术
- 2019届高考语文一二轮复习备考(浙江专用):实用类、论述类文本阅
- GIS基本原理与ArcGIS软件简介 - 图文
- 2018年高考题和高考模拟题物理分项版汇编专题12电磁感应