EMD信号分析方法端点效应分析 - 图文
更新时间:2023-11-15 01:30:01 阅读量: 教育文库 文档下载
- emd信号分解推荐度:
- 相关推荐
西 南 交 通 大 学 本科毕业设计(论文)
EMD信号分析方法端点效应分析
年 级:2005级 学 号:20051198 姓 名:郭云喜
专 业:测控技术与仪器 指导老师:宁静
2009年6月
西南交通大学本科生毕业设计(论文) 第I页
院 系 机械工程学院 专 业 测控技术与仪器 年 级 2005级 姓 名 郭云喜
题 目 EMD信号分析方法端点效应分析
指导教师
评 语
指导教师 (签章)
评 阅 人
评 语
评 阅 人 (签章)
成 绩
答辩委员会主任 (签章)
年 月 日
西南交通大学本科毕业设计(论文) 第II页
毕业设计(论文)任务书
班 级 测控二班 学生姓名 郭云喜 学 号 20051198 发题日期: 2009 年4月27日 完成日期: 6月15日
题 目 EMD信号分析方法端点效应分析 1、本论文的目的、意义 经验模态分解(EMD)是一种新的信号分析方法,运用EMD方法对信号进行分析,把复杂的信号分解成若干个IMF分量之和。使用BP神经网络对信号进行训练、延拓,以抑制端点效应对信号EMD分解的影响,然后同样进行EMD分析,再同之前未经过训练、延拓的信号进行对比,以验证BP神
经网络延拓对抑制端点效应的可行性和有效性。 2、学生应完成的任务 (1)查阅资料了解希尔伯特黄变换以及EMD方法。
(2)熟悉MATLAB编程语言,能使用它进行信号分析。
(3)选择信号处理方案,了解神经网络。
(4)用选择的方案编程,对信号进行相关的分析处理。 3、论文各部分内容及时间分配:(共 12 周)
第一部分 查阅希尔伯特黄变换和EMD方法的相关资料,从总体上了解毕业设计的主要要求。 (2周)
第二部分 熟悉需要用到的相关软件的使用。(3周) 第三部分 编写和调试设计中的各种程序。 (4周)
西南交通大学本科毕业设计(论文) 第III页
第四部分 针对毕业设计系统里面的出现问题进行修改和完成毕业论文的撰写。 (2周) 评阅及答辩
指导教师: 宁静 2009年 4月 27日 毕业论文答辩和论文的后续修改。 (1周)
审 批 人:
年月 日
西南交通大学本科毕业设计(论文) 第IV页
摘要
经验模态分解(EMD)是一种新的处理非线性、非平稳的数据分析方法,在应用经验模态分解(EMD)处理数据的时候,端点效应成为影响该方法精度的主要因素,即在“筛分”的过程中上下包络在数据序列的两端会出现发散现象。端点效应会增加一些虚假成分,信号的总能量也随之增加。对于解决该问题,目前已经提出了多种方法。例如直接以数据端点作为极值点、多项式拟合算法、神经网络延拓算法、极值点与对称延拓相结合等多种算法。本文就神经网络中的BP神经网络对数据延拓进行分析。
首先,论文阐述了EMD、端点效应、端点延拓以及神经网络的基本概念,研究了EMD的分解原理与算法,分析了端点效应对信号分析产生的影响,并对EMD分解中应注意的问题进行了分析研究。
其次,重点阐述神经网络中的BP神经网络。相比于其他神经网络,如径向基神经网络,Elman神经网络,Hopfield神经网络等等,BP神经网络在应用上有哪些优点以及还存在有哪些不足之处,需要进行改进的。
最后,对一个仿真信号作EMD分析,用BP神经网络对该仿真信号端点延拓后再进行EMD分析,对前后分析的结果进行比较,验证了BP神经网络延拓抑制端点效应的可行性和有效性。在此基础上,对试验数据作EMD分析,同样用BP神经网络端点延拓后再进行EMD分析,再进行比较。
关键词:经验模态分解 端点效应 数据延拓
西南交通大学本科毕业设计(论文) 第38页 。
图4-8 第四个分量
幅值mm0.040.0350.030.0250.020.0150.010.0050-0.005-0.0100.20.40.60.8时间(time)t/s11.21.4残余函数r-0.04-0.06-0.080.080.060.040.02EMD分解得到的IMF4幅值/mm
0-0.0200.20.40.60.8时间(time)t/s11.21.4
图4-9 残余函数
针对上述情况,采用BP神经网络延拓能有效的抑制端点效应对EMD分解的影响。根据原始信号,在区域t?[0.15,1.15],先均匀的采取100个数据点。然后设计一个BP神经网络,输入层为5,中间层的输入为11,输出为1,学习率为0.01。构建好网络后,首先对信号的前50个数据点进行训练。其训练效果如图
西南交通大学本科毕业设计(论文) 第39页 4-9。
图4-10 原始信号前50个点的训练效果图
上图是未经EMD分解的原始信号的训练误差图,从图中可以看到,曲线的前半部下降非常快,而后半部下降逐渐平缓,经过181次训练后,其误差就达到了所要求的精度10?8。虽然达到了所要求对精度,但是训练时所用对收敛时间比较长,因此我改变了一下训练参数,当将隐层的输入神经元设置为30时,训练在极短的时间里结束,其训练结果图如图4-11所示。
西南交通大学本科毕业设计(论文) 第40页
图4-11 隐层输入为100时的训练结果图
针对于隐层输入神经元数目分别为11和100时,用该BP神经训练网络训练预测前10个数据点,其结果图如图4-12和4-13所示。
图4-12 隐层输入神经元数目为11时预测前10个采样点的预测结果
西南交通大学本科毕业设计(论文) 第41页
图4-13 隐层输入神经元数目为
100时前50个采样点对预测结果
从图4-12和图4-13中可以看到,当隐层输入神经元数目为100时,虽然它的训练收敛快,但是其预测对效果并不好,不能很好的预测出原始信号曲线的趋势,而当隐层输入神经元数目为11时,它训练的时间比较长,但得到的预测图像非常好。经过多次试验以及第三章中提到的有关隐层的设计我将隐层输入神经元数目设定为11。在本次延拓过程中,预测了10个点。由上图可以看出,预测得到的点很好的遵循了原始信号的图形走向。预测的效果非常好。
同理,对原始信号进行训练,预测后20个数据点,得到图4-14和图4-15。
西南交通大学本科毕业设计(论文) 第42页
图4-14 原始信号后50个点的训练效果图
图4-15 原始信号后端50个点的预测结果
由上面两个图,可以看出,原始信号后50的数据点的训练及延拓预测效果也非常的好。
综上所叙,得到整个原始信号的预测图,如图4-16所示。
西南交通大学本科毕业设计(论文) 第23页 到极大的限制,因此神经网络系统不可能完成高度集成化、智能化的计算任务。同时,神经网络系统理论本身也有很多不完善的地方。所以,神经网络系统理论与应用研究工作进展缓慢。另一方面,这一时期正是数字计算机发展的全盛时期,无论在硬件、软件还是技术应用到商品巾场方面都取得了突飞猛进的发展,使得大批有才华的科学家的注意力都转移到数值计算机方画了。
从20世纪80年代开始 ,是神经网络系统理论发展的黄金时期。这个时期最具标志性的人物是美国加州丁学院的物理学家John Hopfield。他于]982=年和1984年在美国科学院院刊上发表了两篇文章,提出了模仿人脑的神经网络模型,即著名的Hopfield模型。Hopfield网络足—个互连的非线性动力学网络,它解决问题的方法是—种反复运算的动态过程,这是符号逻辑处理方法所不具备的性质。
20世纪80年代,关于智能计算机发展道路的问题日趋迫切地提到日程上来。由于计算机的集成度日趋极限状态,但数值计算的智能水平与人脑相比,仍有较大的差距,因此,就需要从新的角度来思考智能计算机的发展道路问题。这样一来,神经网络系统理论重新受到审视。所以,20世纪80年代后期到90年代初,神纤网络系统理论形成了发展的热点,多种模型,算法和应用问题被提山,研究经费重新变得充足,使得研究者们完成了很多有意义的工作。目前,神经网络系统理论与技术的发展大体分一下3个方面进行。
首先在硬件技术方面,—些发达国家,如美国和日本均实现了规模超过1000个神经元的网络系统,这样的系统具有极高的运算速度,而且已经在股票数据分析中得到了应用。神经网络系统理论的研究方画,主要的进展有Boltzmann机理论的研究、细胞网络的提出和性能指标的分析等。神经网络系统的应用研究主要集中在模式识别(语音和图像识别)、经济管理和优化控制等方面,它和数学、统计中的多个学习有着密切的联系,如线性和非线性规划问题、数值逼近、统计计算等。另外,在其他信息处理问题中也有很多应用,如数据压缩、编码和股市分析等领域,应用内容十分丰富。
3.2 神经网络的研究内容
神经网络的研究内容相当广泛,反映了多学科交叉技术领域的特点。目前,主要的研究工作集中在以下四方面。
? 生物原型研究:从生理学、心理学、解剖学、脑科学、病理学等生物科学方
面研究神经细胞、神经网络、神经系统的生物原型结构及其功能机理。 ? 建立理论模型:根据生物原型的研究,建立神经元、神经网络的理论模型,
其中包括概念模型、知识模型、物理化学模型、数学模型。
西南交通大学本科毕业设计(论文) 第24页 ? 网络模型与算法研究:在理论模型研究的基础上构成具体的神经网络模型,
以实现计算机模拟或准备制作硬件,包括网络学习算法的研究。这方面的工作也称为技术模型研究。
? 神经网络应用系统:在网络模型与算法研究的基础上,利用神经网络组成实
际的应用系统,例如,完成某种信号处理或模式识别的功能、构建专家系统、制成机器人等等。
3.3神经网络模型
神经网络的基本组成单元式神经元。数学上的神经元模型和生物学上的神经细胞相对应,或者说,神经网络理论是用神经元这种抽象的数学模型来描述客观世界的生物细胞的。
很明显,生物的神经细胞是神经网络理论诞生和形成的物质基础和源泉。这样,神经元的数学描述就必须以生物神经细胞的客观行为特性为依据。因此,了解生物神经细胞的行为特性就是一件十分重要且必须的事了。
神经网络的延拓结构也是以生物学解剖中神经细胞互连的方式为依据的,对神经细胞相互作用情况的揭示也是十分重要的。
3.3.1 生物神经元模型
神经元是神经网络的基本元素,只有了解神经元才能认识神经网络的本质。 在人体内,神经元的结构形式是完全相同的。但是,无论结构形式如何,神经元都是由一些基本的成分组成的,神经元的生物学解剖如图3-1所示。
西南交通大学本科毕业设计(论文) 第25页
图3-1 神经元的生物学解剖
从图中可以看出,神经元由细胞体、树突和轴突三部分组成。其中突触是神经元之间的连接,其结构如图3-2所示
图3-2 突触结构
目前,神经网络的研究只是处于初级阶段,后边还有大量的工作等人们去探讨和研究。神经网络的研究已经向人们展示了其美好的美景,只要按阶段不断取得进展,神经元和突触是完全可以实现人工模拟的。
西南交通大学本科毕业设计(论文) 第26页
3.3.2 神经元模型
从神经元的特性和功能可以知道,神经元是一个多输入单输出的信息处理单元,而且,它对信息的处理是非线性的。根据神经元的特性和功能,可以把神经元抽象为一个简单的数学模型。工程上的神经元模型如图3-3所示。
图3-3 神经网络的数学模型
在图3-3中,x1,x2?xn是神经网络的输入,既是来自前级n个神经元的轴突的信息;vi是i神经元的阀值;?1i,?1i??ni分别是i神经元对x1,x2?xn的权值连接,即突触的传递效率;yi是i神经元的输出;f是传递函数,决定i神经元受到输入x1,x2?xn的共同作用达到阀值时以何种方式输出。
3.4 BP神经网络
Minsky和Papert的论点曾使许多人对神经网络的研究失去了信心,但仍有许多的学者坚持这方面的研究。Rumelhart、McClelland和他们的同事洞察到神经网络信息处理的重要性,于1982年成立了一个PDP小组,研究并行分布信息处理方法。1985年发展了BP网络学习算法,实现了Minsky的多层网络设想。BP网络是一种多层前馈型神经网络,其神经元的传递函数是S型函数,输出量为0到1之间的连续量,它可以实现从输入到输出的任意非线性映射。由于权值的调整采用反向传播(Back Propagation)学习算法,因此也常称其为BP网络。目前,在人工神经网络的实际应用中,绝大部分的神经网络模型都采用BP网络及其变化形式。它也是前向网络的核心部分,体现了人工神经网络的精华。 BP网络主要应用于以下四个方面。
? 函数逼近:用输入矢量和相应的输出矢量训练一个网络以逼近一个函数。
西南交通大学本科毕业设计(论文) 第27页 ? 模式识别:用一个待定的输出矢量将它与输入矢量联系起来。 ? 分类:把输入矢量所定义的合适方式进行分类。 ? 数据压缩:减少输出矢量维数以便于传输或存储。
3.4.1 BP神经元
图3-5给出了一个基本的BP神经元模型,它具有R个输入,每个输入都通过一个适当的权值?和下一层相连,网络输出可表示为:
a?f(?*p?b)
f就是表示输入/输出关系的传递函数。
BP网络中隐层神经元的传递函数通常用log-sigmoid型函数logsig()、tansigmoid型函数tansig()以及纯线性函数purelin().其传递函数如图3-5所示。
如果BP网络的最后一层是sigmoid性神经元,那么整个网络的输出就限制在一个较小的范围内;如果BP网络的最后一层是purelin型线性神经元,那么整个网络的输出可以取任意值。
BP网络所采用的传递函数均是可微的单调递增函数。在BP网络的训练过程中,计算函数logsig()、tansig()、purelin()的导数非常重要,神经网络工具箱提供了这些求导函数依次为dlogsig()、dtansig()、dpurelin()。在工作空间输入缀有‘deriv’的指令就可以找到相应传递函数的导数函数。例如: tansig(‘deriv’) ans=dtansig
这些函数都是设计BP网络时要经常用到的。如果用户在实际应用中需要用到其他的函数,可以自行定义。
西南交通大学本科毕业设计(论文) 第28页
?
图3-5 BP神经元模型
3.4.2 BP网络模型
BP网络的结构如图3—18所示。由图可见,DP网络是一种具有三层或三层以上神经元的神经网络,包括输入层、中间层(隐层)和输出层。上下层之间实现全连接,而每层神经元之间无连播。当一对学习样本提供给网络后,神经元的激活值从输入层经各中间层向输出层传播,在输出层的各神经元获得网络的输入响应。接下来,按照减少目标输出与实际输出之间误差的方向,从输出层反向经过各中间层回到输入层,从而各层修正各连接权值,这种算法称为“误差反向传播算法”,即BP算法。随着这种误差逆向的传播修正不断进行,网络对输入模式响应的正确率也不断上升。
图3-6 神经网络连接模型
与感知器模型不同的是,由于误差反向传播中合对传递函数进行求导计算,BP网络的传递函数要求必须是可微的,所以不能值用感知器网络中的硬阀值传
西南交通大学本科毕业设计(论文) 第29页 递函数,常用的有Sigmoid型的对数、正切函数或线性函数。由于传递函数是处处可微的,所以对于BP网络来说,一方面,所划分的区域不再是一个线性划分,而是由一个非线性超平面组成的区域,它是比较平滑的曲而,因而它的分类比线性划分更加精确,容错性也比线性划分更好;另一方面,网络可以严格采用梯度下降法进行学习,权值修正的解析式十分明确。
3.4.3 BP网络学习规则
这里不讨论学习规则的数学推导过程,只给出学习过程及步骤,以供设计与分析DP网络时作为参考。我们以一个三层BP网络为例,介绍BP网络的学习过程及步骤。
在介绍之前,首先对各符号的形式及意义进行说明。 网络输入向量Pk?(a1,a2,?,an); 网络目标向量Tk?(y1,y2,?,yq);
中间层单元输入向量Sk?(s1,s2,?,sp),输出向量Bk?(b1,b2,?,bp); 输出层单元输入向量Lk?(l1,l2,?,lq),输出向量Ck?(c1,c2,?,cq); 输出层至中间层的连接权wij,i?1,2,?,n,j?1,2,?,p; 中间层至输出层的连接权vjt,j?1,2,?,p,t?1,2,?,p; 中间层各单元的输出阀值?j,j?1,2,?,p; 输出层各单元的输出阀值?j,j?1,2,?,p; 参数k?1,2,?,m。
(1)初始化。给每个连接权值wij、vjt、阀值?j与?t赋予区间(-1,1)内的随机值。
kkk(2)随机选取一组输入和目标样本Pk?(a1k,a2,?,an)、Tk?(s1k,s2,?,skp)提供给网络。
kk(3)用输入样本Pk?(a1k,a2,?,an)、连接权wij和阀值?j计算中间层各单
元的输入sj,然后用sj通过传递函数计算中间层各单元的输出bj。
sj??wijai??j j?1,2,?,p
nbj?f(sj) j?1,2,?,p
(4)利用中间层的输出bj、连接权vjt和阀值?t计算输出层各单元的输出Lt,然后通过传递函数计算输出层各单元的响应Ct。
i?1Lt??vjtbj??t t?1,2,?,q
pCt?f(Lt) t?1,2,?,q
kk(5)利用网络目标向量Tk?(y1k,y2,?,yq),网络的实际输出Ct,计算输出
j?1层的各单元一般化误差dtk。
西南交通大学本科毕业设计(论文) 第30页
dtk?(ytk?Ct)*Ct(1?Ct) t?1,2,?,q
(6)利用连接权vjt、输出层的一般化误差dt和中间层的输出bj计算中间层各单元的一般化误差ekj。
kje?[?dt*vjt]bj(1?bj)
(7)利用输出层各单元的一般化误差dtk与中间层各单元的输出bj来修正连接权vjt和阀值?t。
t?1qvjt(N?1)?vjt(N)?a*d1k*bj
?t(N?1)??t(N)?a*dtk
t?1,2,?,q j?1,2,?,p,0?a?1
(8)利用中间层各单元的一般化误差ekj,输入层各单元的输入
Pk?(a1,a2,?,an)来修正连接权wij和阀值?j。
kwij(N?1)?wij(N)??ekjai
?j(N?1)??j(N)??ekj
i?1,2,?,n,j?1,2,?,p,0???1
(9)随机选取下一个学习样本向量提供给网络,返回到步骤(3),直到m个训练样本训练完毕。
(10)重新从M个学习样本中随机选取一组输入和目标样本,返回步骤(3),直到网络全局误差E小于预先设定的一个极小值,即网络收敛。如果学习次数大于预先设定的值,网络就无法收敛。 (11)学习结束。
可以看出,在以上学习步骤中,(7)(10)步则用于完成训练和收敛过程。(8)步为网络误差的“逆传播过程”,
通常,经过训练的网络还应该进行性能测试。测试的方法就是选择测试样本向量,将其提供给网络,检验网络对其分类的正确性。测试样本向量中应该包含今后网络应用过程中可能遇到的主要典型模式。这些样本可以通过直接测取得到,也可以通过仿真得到,在样本数据较少或者较难得到时,也可以通过对学习样本加上适当的噪声或按照一定规则插值得到。为了更好地验证网络的泛化能力,一个良好的测试样本集中不应该包含和学习样本完全相同的模式。
3.4.4 BP网络设计技巧
1)输入和输出层的设计
输入的神经元可以根据需要求解的问题和数据表示方式确定。如果输入的是根拟信号波形,那么输入层可以根据波形的采样点数目决定输入单元的维数,也可以用一个单元输入,这时输入样本为采样的时间序列;如果输入为图像,则输
西南交通大学本科毕业设计(论文) 第31页 入单元可以为图像的像素,也可以是经过处理的图像特征。
输出层的维数可根据使用者的要求确定。如果将BP网络用做分类器,有m个,那么输出层神经元的个数为m或log2m。 2)隐层的设计
对于BP网络,有一个非常重要的定理。即对于任何在闭区间内的一个连续函数都可以用单隐层的BP网络迫近,因而一个三层BP网络就可以完成任意的M维到闭经的映射。
隐层的神经元数目选择是一个十分复杂的问题,往往需要根据设计者的经验和多次实验来确定,因而不存在一个理想的解析式来表示。隐单元的数目与问题的要求、输入助出单元的数目都有着直接关系。隐单元数目太多会导致学习时间过长、误差不一定最佳,也会导数容错性差、不能识别以前没有看到的样本,因此一定存在一个最佳的隐单元数。以下3个公式可用于选得最佳隐单元数时的参考公式。
i(1)?Cn?k,其中,k为样本数,n1为隐单元数,n为输入单元数。如果ini?n1,C?0。
(2)n1?n?m?a,其中,m为输出神经元数,n为输入单元数,a为[1,10]之间的常数。
(3)n1?log2n,其中,n为输入单元数。
还有一种途径可用于确定隐单元的数目。首先使隐单元的数目可变,或者放入足够多的隐单元,通过学习将那些不起作用的隐单元剔除,直到不可收缩为止。同样,也可以在开始时放入比较少的神经元,学习到一定次数后,如果不成功则再增加隐单元的数目,直到达到比较合理的隐单元数目为止。
(4)初始值的选取
由于系统是非线性的,初始值对于学习能否达到局部最小和是否能够收敛的结果关系很大。一个重要的要求是:初始权值在输入累加时使每个神经元的状态值接近于零,权值一般取随机数,数值要比较小。输入样本也同样希望进行归一他处理,使那些比较大的输入仍范在传递函数梯度大的地方。
ii?0ni3.4.5.BP网络的不足及改进
在人工神经网络的应用中,绝大部分的神经网络模型采用了BP网络及其变化形式,但这并不说明BP网络是尽善尽美的,其各种算法依然存在一定的局限性。BP神经网络的不足和改进主要有以下几个方面:
(1)
由于学习速率是固定的,因此,网络的收敛速度慢,需要较长的训练时间。对于一些复杂的问题,BP算法需要的训练时间可能会
西南交通大学本科毕业设计(论文) 第32页
非常长。这主要是由于学习速率太小造成的,对于这个问题,可采用的改进方法有:附加动量项、变化的学习速率或自适应的学习速率。
(2)
BP算法可以使权值收敛到某个值,但并不能保证其为误差平面的全局最小值,这是因为采用梯度下降法可能会产生多个局部最小值。
(3)
网络隐含层的层数和单元数的选择尚无理论上的指导,一般是根据经验或者通过反复试验确定。因此,网络往往存在很大的冗余性,在一定程度上也增加了网络学习的负担。
(4)
网络的学习和记忆具有不稳定性。也就是说,如果增加了学习样本,训练好的网络就需要从头开始重新训练,对于以前的权值和阀值是没有记忆的。
3.4.6 BP神经网络的构建
本小节介绍BP神经网络的构建、初始化、仿真。 1.生成神经网络
训练神经网络之前需要构造一个网络构架,函数newff()就是构造神经网络的。它需要四个输入条件,依次是:由R维的输入样本最大最小值构成的R*2维矩阵、各层的神经元个数、各层神经元的传递函数以及训练用函数的名称。
假设需要构建一个两层的神经网络,其输入向量是二维的,输入向量的范围为[-1 2;0 5],第一层(隐层)有三个神经元,传递函数是tansig();第二层(输出层)是单个神经元,传递函数是线性的,训练函数选取traingd。至此就生成了初始化训练的神经网络。
2.权值初始化
前馈性神经网络在训练之前必须要对权值和阀值进行初始化,newff()函数可以自动完成这一过程,但是无法重新赋新值。如果相重新初始化,可以应用init()函数,使网络恢复到初始化的情况。
3.网络仿真
给定网络结构和输入变量p,就可以应用sim()函数计算相应的网络输出a。
西南交通大学本科毕业设计(论文) 第13页
开始 输入信号x(t) r?x(t),n?1 确定x(t)的局部极大值点和极小值点 拟合上包络线E1和下包络线E2 x(t)?h m?(E1?E2)2 h?x(t)?m h是否满足IMF条件 否 是 x(t)?r n?n?1,c(n)?h,r?r?c(n) r是否为一单调函数? 否 是 结束
西南交通大学本科毕业设计(论文) 第14页 当rn成为一个点掉函数不能再从中提取满足IMF条件的分量时,循环结束。这样由式(2.6)和式(2.7)得到
x(t)??c1?rn (2.8)
i?1n式中,rn称为残余函数,代表信号的平均趋势。
EMD的分解过程其实是一个“筛分”过程,在“筛分”的过程中,不仅消除了模态波形的叠加,而且使波形轮廓更加对称。EMD方法从特征时间尺度出发,首先吧信号中特征时间尺度最小的模态分离出来,然后分离特征时间尺度较大的模态函数,最后分离特征时间尺度最大的分量,因此可以把EMD方法看成是一组高通滤波器。上图给出了整个“筛分”过程的流程。
2.3.2 EMD分解的原理
这种分解是建立在以下的假设上:(l)信号至少有两个极值点,一个极大值点和一个极小值点;(2)特征时间尺度是通过两个相邻的极值点之间的时间间隔定义的;(3)若数据缺乏极值点但有变形点,则可通过数据微分一次或几次获得极值点,然后再通过积分来获得分解结果。
这种方法的本质是通过数据的特征时间尺度来获得本征波动模式,然后以此为依据分解数据,分解所用的基函数是基于数据本身的。根据Drazin的经验,数据分析的第一步是用眼睛观察数据,有两种方法能直接区分不同尺度的波动模式:(l)观察依次交替出现的局部极大、极小值点间的时间间隔;(2)观察依次出现的过零点的时间间隔。交织的局部极值点与过零点形成了复杂的数据序列:一个波动骑在另一个波动之上,同时它们又可能骑在其它的波动上,依此类推,这些起伏波动中的每一个分量都定义了数据的一个特定尺度。采取依次出现的极值点间的时间间隔作为局部振荡模式的时间尺度,因为它对局部振荡模式不但有更好的分辨率,而且可用于单一符号的数据,即数据可以都是正值或都是负值,无论有没有过零点。为了把各种波动模式从数据中提取出来,采用基于经验的模态分解方法(EMD),或形象地称之为“筛”的过程,思路如下:
根据本征模函数的定义,该分解方法利用局部极大值与局部极小值定义的包络来求均值曲线。找出信号中所有局部极大值并利用三次样条插值函数连接成上包络;同理,利用三次样条插值函数连接所有局部极小值构成下包络,所有的数据都应包含在上下包络之间。这一求信号上下包络的过程如图2-1所示。
西南交通大学本科毕业设计(论文) 第15页
图2-1 求取原始信号的上下包络线
如上图,找出原始信号的所有极值点,由极小值和极大值分别画出上、下包络线,点划线所示即为上、下包络线。
求出上、下包络线的均值定义为m1,得到图2-2,如下所示。
图2-2 画出上、下包络线的中间值m1
图2-2中长划线就是上、下包络线及包络均值曲线m1,它将信号很好地进行了上下平均,其由下式求出。
(E1?E2)2?m1
而原始信号与m1的差值被定义为分量h1,即有如下等式
x(t)?m1?h1 (2.9)
10 西南交通大学本科毕业设计(论文) 第16页 -1-2所示。 h1如图2-3102030405060708090100110120 residue1.510.50-0.5-1-1.5102030405060708090100110120 图2-3 剩余分量h1
上图中实线为原始信号与包络均值m1的差值,由图可以看出,得到的分量h1不满足IMF分量的条件,因此第一次筛分结束后继续进行第二次筛分过程。
理想情况下,h1应是本征模函数,因为h1的构造过程就是使它满足IMF的条件。但即使对包络线的拟合非常好,信号斜坡上的一个微小凸包也可能在筛选过程中转变成新的极值点,这些新的极值点正是前一次筛选过程中遗漏的。因此需要反复筛选,以恢复所有低幅度的叠加波。
另一个问题是对于非线性数据,包络均值可能不同于真实的局部均值,因此,有些数据无论经过多少次“筛”的过程,一些非对称的波形依旧存在。这主要是由于采用包络平均这个近似的方法所造成。
除了上述问题,在实际操作时,由于插值函数端点处极值的不确定性引起的端点效应也会产生严重的问题。插值拟合由于端点处极值的不确定性会在信号两端产生很大的摆动,并且,随着“筛”的过程,这些摆动会由端点逐渐向内传递甚至“污染”整个数据,尤其对于分解出来的低频组分来说,问题更加严重。
为了去除叠加波,使波形更加对称,“筛”的过程必须多次进行。在第二次“筛”的过程中,把第一次的h1看作待处理数据,m11为h1的包络平均,“筛”的过程表达为
h1?m11?h11 (2.10) 图2-3显示出经过第二次筛选过滤后有显著改进的处理结果,其中(a)为第二次筛选的上下包络和均值曲线m11;(b)为式(2-10)所示的筛选后的曲线h11,此时波形更加对称,但仍然有一些波形是非对称的。因此重复进行“筛分”过程k次,直到h1k是一个IMF分量,于是
西南交通大学本科毕业设计(论文) 第17页 h1k?1?m1k?1?h1k (2.11) 这样就从原始信号中分解出了第一个IMF,把它定义为
c1?h1k (2.12)图2-4(a)显示出经过第k次筛选过滤后有显著改进的处理结果,其中点划线为第k次筛选的上下包络和均值曲线m1k;(b)为式(2-14)所示的筛选后的曲线h1k,也是式(2-15)所示的原始信号中分解出了第一个IMF分量。
图2-4(a)
图2-4(b)
图2-4 重复筛选过程中第k次筛选效果图
正如以上描述的,处理过程事实上是一个筛选过程:仅从特征时间尺度出发,一步步把信号中最精细的局部模态筛选出来。筛选过程有两个效果:第一个效果是去除叠加波,使波形变的更加对称;第二个效果是平滑不平稳的振幅。为了使瞬时频率有意义,第一个效果是必须达到的,为了使两个相邻的波形振幅变化不会太大,第二个效果也是必要的。然而,当第二个效果发挥到极致,即过多地重复筛选过程会导致IMF分量变成纯粹的频率调制信号,而其幅度变成恒定的,去除了有意义的振幅波动。
西南交通大学本科毕业设计(论文) 第18页 由“筛”的过程可看出,c1应包含原信号中最精细或周期最短的分量。原信号x(t)减去c1,则得到残余信号r1
x(t)?c1?r1 (2.13) 若残余信号r1中还包含一些长周期的组分,那就把它作为一个新的数据进行如上所述的“筛”的过程。对后面的r1也进行同样的筛选,这样依次得到第二个IMF、、第n个IMF
r1?c2?r2 ? (2.14)
rn?1?cn?rn整个分解过程按如下任何一个准则终止:(l)当分量cn或残余分量rn,变成小到比预定值小时便停止;(2)当残余分量rn变成单调函数,从中不能再筛选出IMF分量为止,将上式相加最终得到
nx(t)??ci?rn (2.15)
i?1于是,到此已经把原始数据分解成n个IMF分量及剩余分量rn,rn为平均趋势或常量。
2.3.3 EMD方法的特点
EMD方法自问世以来,由于它的优越特性在很多领域得到了广泛应用。总的来说,EMD方法具有自适应性、正交性与完备性及IMF分量的调制特性灯突出特点。 1.自适应性
EMD方法的自适应性表现在以下几个方面。 1)基函数的自动产生
EMD方法在整个“筛分”过程中是直接的和自适应的,它不像小波分解那样需要预先选择基函数。在EMD的分解过程中,基函数直接从信号本身产生,不同的信号会产生不同的基函数,因此EMD方法是依据信号本身的信息对信号进行分解,得到的IMF分量的个数通常式有限的,而且每一个IMF分量都表现了信号内涵的真实物理信息。
2)自适应的滤波特性
经过“筛分”过程,EMD方法将信号进行分解,得到一系列包含了从高到低不同频率成分、而且可以是不等带宽的IMF分量c1,c2,?cn,这些频率成分和带宽是随信号的变换而变化的。因此,EMD方法可以看成是一组自适应的高通
西南交通大学本科毕业设计(论文) 第19页 滤波器,它的截止频率和带宽都随信号的变化而变化。而对于小波和小波分解,一旦选择了小波分解尺度,得到的将是某一个固定频率段的时域波形,这一频率段与信号无关,只与信号的分析频率有关,因此,相比之下,小波或小波包分解不具有自适应性。
3)自适应的多分辨率
EMD方法将信号进行分解,得到有限数目的IMF分量,各个IMF分量包含了不同的特征在不同的分辨率下显示出来,因此EMD方法可以实现多分辨率分析。
2.正交性与完备性
所谓信号分解方法的完备性,就是把分解后的各个分量相加能获得原信号的性质。Huang指出随着EMD分解的深入进行得到的IMF分量所包含的振荡频率越来越低;而对于重构过程,随着重构的进行重构信号越来越接近原始信号。最后得到的重构信号与原信号之间只相差一个趋势项和计算误差,计算误差是计算过程中由于舍入误差所引起的,一般该误差很小。式(2-15)表示了信号分解和重构之间的关系,该式表明EMD分解方法具有足够的完备性。EMD分解的正交性在实际意义上满足,但直到现在未能从理论上进行严格地证明。其正交性可以通过后验的数字方法给出,式(2-15)可写为
x(t)??ci (2.16)
该式把残余量cn作为一个附加的组分cn?1,对该式两边进行平方得
x(t)??c(t)?2??ci(t)cj(t) (2.17)
22in?1i?1n?1n?1i?1n?1若分解是正交的,则式(2-21)右边交叉项必须为零,这样,对于信号x(t)的 正交性指标(Index of Orthogonality)可定义为
IO??[??ci(t)cj(t)T?0i?1j?i?1Tn?1n?1i?1j?i?1x2(t) (2.18)
大量的数字实验验证表明,一般的数据正交性指标不超过1%,对于一些很短的数据序列,极限情况下可能达到5%。
2.4 EMD分解中应注意的问题
2.4.1伪分量判别方法
为了确定哪一个IMF分量是伪分量,可以从各分量与原信号的相关性出发,分析各分量的真伪。假设原信号S是由n个基本模式分量组成,如下(2.19)式:
S??ci (2.19)
i?1n 西南交通大学本科毕业设计(论文) 第20页 经过EMD分解后,原则上会分解出n个基本模式分量ci,分别对应原信号中n个基本模式分量。由于分解过程中存在误差,会分解出n个基本模式分量ci和m个伪分量xk,而且ci和ci并不完全相同,m个伪分量xk就是两者的差值形成的。
n?imj??S??ci??xi (2.20)
分解后的基本模式分量ci与原信号S具有如下的相关性如下(3.21)式:
?RS,CI?(?)?E[S(t)*ci(t??)]?E[?cj(t)*ci(t??)]j?1????n? (2.21)
?E[c1(t)*ci(t??)]???E[ci(t)*ci(t??)]???E[cn(t)*ci(t??)]由于EMD分解过程是局部正交分解,所以伪分量xk与原信号的相关关系如下:
RS,xi(?)?E[S(t)*xi(t??)]?E[?cj(t)*xk(t??)]??Rcj,xk(?)?0 (2.23)
j?1j?1nnj?1,j?i?nRCI,CI?(?)?0 (2.22)
式中?Rcj,xk(?)?0,原理同上。由(2.21)式可知,各基本模式分量与原信号的相关性约等于各分量的自相关;而由(2.22)式可知,伪分量与原信号的相关性很小。因此,从分解后各分量与原信号的相关性分析中,可以看出各分量的真伪。
j?1n2.4.2信号长度的选取
应用EMD分解方法时,在信号分解的样条插值中和在计算瞬时频率的希尔伯特变换中,都存在边界影响。样条插值造成的最严重的问题是在信号的两端,这里样条插值会给未经处理的两端带来很大的摆动。对于我们采用自适应分解法,虽然对边界效应有一定的改进,但问题依然存在。另一方面,希尔伯特变换也有边界效应。总之,在EMD分解方法中,到目前为止,还没有一种更好的方法能够完全消除边界影响。因此,在应用EMD分解方法时,无论选用何种方法计算均值,都有可能有边界效应存在,即在分解得到的信号两端可能有摆动。所以采用EMD分解方法分析数据时,待处理数据不应取的太短。
2.4.3筛选过程停止准则
EMD方法将信号序列分解为若干基本模式分量,但应该有个停止的条件准则。此处停止条件可以为如下几种:(1)当最后一个分量或剩余分量rn变的比预定值小时便停止;(2)令当剩余分量rn变成单调函数,从而不能从中再筛选出基
西南交通大学本科毕业设计(论文) 第21页 本模式分量为止。即使原信号数据具有全局零均值,其最后的剩余分量仍可能不为零;(3)对于有趋势的数据,其剩余分量为一个平均趋势。
该条件准则的选取也应适中,若条件太严格,那么分解得到的最后几个基本模式分量将没有太大意义,而且还消耗时间;若条件太宽松,可能会丢失有用的信号分量。所以信号分解停止准则的选取对于EMD分解起着重要的作用,所以一定要慎重的考虑。
2.5本章小结
(1)阐述了基于EMD时频分析方法的基本概念,首先介绍了瞬时频率的传统定义—解析信号相位的导数,通过对其物理意义的分析引出了本征模函数的概念。 (2)分析了EMD分解算法的具体步骤和流程图、EMD分解的原理、EMD方法的特点,探讨了分解的完备性及正交性。
(3)分析了在EMD分解中应注意的问题—伪分量判别方法、信号长度的选取、筛选过程的停止准则选取、信号分解停止准则选取。
西南交通大学本科毕业设计(论文) 第22页
第三章 神经网络
人工神经则络(Artificial Networks,ANN)是由人数简单的基本元件——神经元相互连接,通过模拟人的大脑神经处贝信息的方式,进行信息并行处理利非线性转换的复杂网络系统。由于神经网络具有强大的学习功能,可以比较轻松地实现非线性映射过程,并且具有大规模计算的能力。因此,它在自动化、计算机和人工扦能领域都有着广泛的适用性,实际上也确实得到了大量的应用,解决了很多利用传统方法难以解决的问题。
自第一台计算机于1946年问世以来,电子计算机经过多次更新换代,信息处理能力不断完善和提高,在信息化社会中占有十分重要的地位。但是计算机在识别能力上却与人相去甚远。例如, —个人可以很容场地识别他人的脸扎,但计算机很难做到这一点。这是因为脸孔的识别不能用—个精确的数学模型加以描述,而计算机工作则必须有对模型进行各种运算的指令才行,得不到精确的模型,程序也就无法编制。而大脑是由生物神经元构成的巨型网络,它在本质上不同于计算机,是一种大规模的并行处理系统,它具有学习、联想记忆、综合等能力,并有巧妙的信息处理方法。人工神经网络(简称神经网络)也是由大量的、功能比较简单的形式神经元互相连接而构成的复杂网络系统,用它可以模拟大脑的许多基本功能和简单的思维力式,尽管它还不是大脑的完美无缺的模型,但它可以通过学习来获取外部的知识并将其存储在网络内,可以解决计算机不易处理的难题,特别是语音和图像的识别、理解,知识的处理,组合优化计算和智能控制等一系列本质上为非计算的问题。
因此,神经网络技术在很多领域中得到了广泛的应用,同时已成为当前人工智能领域中最令人感兴趣和最富有魅力的研究课题之一。
3.1 神经网络发展史
自1943M-P模型开始,至20世纪60年代为止,这一段时间可以称为神经网络系统理论发展的初期阶段。这个时期的主要特点是多种网络的模型的产生与学习算法的确定。如:1944年Hebb提出了Hebb学习规则,该视则至今仍是神经网络学刁算法的一个基本规则; 1957年 Rosenblatt提出了感知器(Perceptmn)模则;1962年Widow提出了自适应(Adaline)线性元件模型等。这此模型和算法在很大程度上丰富了神经网络系统理论。
20世纪60年代到70年代,神经网络系统理论的发展还处于—个低潮时期,造成这种情况的原因是发展过程中遇到了本质的困难,即电子线路交叉极限的困难(对丁n个神经元就存在n2条坡线)。在当时的条件下,神经元数量n的大小受
正在阅读:
EMD信号分析方法端点效应分析 - 图文11-15
技术科:《行规》学习教材(辅导材料)03-23
关于文化传承的作文(精选7篇)03-31
滨州公务员年终奖02-15
黄鹤楼送别课堂实录10-12
《统计学》第六章抽样调查05-25
人教版数学一年级上册总复习教案04-26
非线性系统的分析_相平面107-23
2013年1月会计人员继续教育培训试题档05-26
- exercise2
- 铅锌矿详查地质设计 - 图文
- 厨余垃圾、餐厨垃圾堆肥系统设计方案
- 陈明珠开题报告
- 化工原理精选例题
- 政府形象宣传册营销案例
- 小学一至三年级语文阅读专项练习题
- 2014.民诉 期末考试 复习题
- 巅峰智业 - 做好顶层设计对建设城市的重要意义
- (三起)冀教版三年级英语上册Unit4 Lesson24练习题及答案
- 2017年实心轮胎现状及发展趋势分析(目录)
- 基于GIS的农用地定级技术研究定稿
- 2017-2022年中国医疗保健市场调查与市场前景预测报告(目录) - 图文
- 作业
- OFDM技术仿真(MATLAB代码) - 图文
- Android工程师笔试题及答案
- 生命密码联合密码
- 空间地上权若干法律问题探究
- 江苏学业水平测试《机械基础》模拟试题
- 选课走班实施方案
- 分析
- 端点
- 效应
- 信号
- 图文
- 方法
- EMD
- 推荐 2017年上海市中小学生学业质量绿色指标测试实施方案 精品 - 图文
- VB课后习题 - 图文
- 新版消防规范执行过程中的疑问探讨(正式) - 图文
- 中共青海省委历任领导
- 装配整体式钢筋混凝土剪力墙结构结构专业主要优选项目汇总
- XtraGrid
- 随机过程上机实验报告
- 西安交通大学《编译原理》作业考核试题
- 2015.3.2四校联考 文科加试题讲评版 - 图文
- 民运会心得体会
- 黑蒜技术起源于日本
- 大工13春《SQL数据库课程设计》模板及要求
- 通川区第一教育集团年度工作计划
- 建筑工程施工技术与管理试题库答案
- 2016-2022年中国环保药剂与材料市场竞争调研及十三五运营管理深度分析报告 - 图文
- 上海市日照分析计算规则
- 2019部编本五年级语文下册专项练习:课外阅读
- 关于建立危重孕产妇报告和评审制度的通知
- Java复习题 - 1
- 七年级数学假期作业