matlab神经网络学习总结
更新时间:2023-11-27 05:38:01 阅读量: 教育文库 文档下载
- matlab神经网络预测推荐度:
- 相关推荐
1 通过神经网络滤波和信号处理,传统的sigmoid函数具有全局逼近能力,而径向基rbf函数则具有更好的局部逼近能力,采用完全正交的rbf径向基函数作为激励函数,具有更大的优越性,这就是小波神经网络,对细节逼近能力更强。 BP网络的特点
①网络实质上实现了一个从输入到输出的映射功能,而数学理论已证明它具有实现任何复杂非线性映射的功能。这使得它特别适合于求解内部机制复杂的问题。我们无需建立模型,或了解其内部过程,只需输入,获得输出。只要BPNN结构优秀,一般20个输入函数以下的问题都能在50000次的学习以内收敛到最低误差附近。而且理论上,一个三层的神经网络,能够以任意精度逼近给定的函数,这是非常诱人的期望;
②网络能通过学习带正确答案的实例集自动提取“合理的”求解规则,即具有自学习能力; ③网络具有一定的推广、概括能力。 bp主要应用
回归预测(可以进行拟合,数据处理分析,事物预测,控制等)、 分类识别(进行类型划分,模式识别等),在后面的学习中,都将给出实例程序。
但无论那种网络,什么方法,解决问题的精确度都无法打到100%的,但并不影响其使用,因为现实中很多复杂的问题,精确的解释是毫无意义的,有意义的解析必定会损失精度。 BP注意问题
1、BP算法的学习速度很慢,其原因主要有:
a 由于BP算法本质上为梯度下降法,而它所要优化的目标函数又非常复杂,因此,必然会出现“锯齿形现象”,这使得BP算法低效;
结论4:由上表可以看出,后者的初始权值比较合适些,因此训练的时间变短, 误差收敛速度明显快些。因此初始权值的选取对于一个网络的训练是很重要的。 1.4,用最基本的BP 算法来训练BP 神经网络时,学习率、均方
误差、权值、阈值的设置都对网络的训练均有影响。综合选取合理的值,将有 利于网络的训练。在最基本的BP 算法中,学习率在整个训练过程是保持不变的, 学习率过大,算法可能振荡而不稳定;学习率过小,则收敛速度慢,训练时间 长。而要在训练之前选择最佳的学习率是不现实的。因此学习率可变的BP 算法 (variable learning rate backpropagation ,VLBP)应运而生。下一结介绍 用VLBP 来训练该网络的情况。
b 存在麻痹现象,由于优化的目标函数很复杂,它必然会在神经元输出接近0或1的情况下,出现一些平坦区,在这些区域内,权值误差改变很小,使训练过程几乎停顿; c 为了使网络执行BP算法,不能用传统的一维搜索法求每次迭代的步长,而必须把步长的更新规则预先赋予网络,这种方法将引起算法低效。 2、网络训练失败的可能性较大,其原因有:
a 从数学角度看,BP算法为一种局部搜索的优化方法,但它要解决的问题为求解复杂非线
性函数的全局极值,因此,算法很有可能陷入局部极值,使训练失败;
b 网络的逼近、推广能力同学习样本的典型性密切相关,而从问题中选取典型样本实例组成训练集是一个很困难的问题。 3、网络结构的选择:
尚无一种统一而完整的理论指导,一般只能由经验选定。为此,有人称神经网络的结构选择为一种艺术。而网络的结构直接影响网络的逼近能力及推广性质。因此,应用中如何选择合适的网络结构是一个重要的问题。
4、新加入的样本要影响已学习成功的网络,而且刻画每个输入样本的特征的数目也必须相同。
5、采用s型激活函数,由于输出层各神经元的理想输出值只能接近于1或0,而不能打到1或0,因此设置各训练样本的期望输出分量Tkp时,不能设置为1或0,设置0.9或0.1较为适宜。
一 认识bp:
第二节内容:主要是阐述BP中几个容易混绕的概念和问题,包括什么是网络的泛化能力?过拟合是什么,怎么处理?学习速率有什么作用?神经网络的权值和阈值分别是个什么概念?用BP逼近非线性函数,如何提高训练精度?本节主要学习BP中几个容易混绕的概念和问题:什么是网络的泛化能力?过拟合是什么,怎么处理?学习速率有什么作用?神经网络的权值和阈值分别是个什么概念?用BP逼近非线性函数,如何提高训练精度? 什么是网络的泛化能力?
一个神经网路是否优良,与传统最小二乘之类的拟合评价不同(主要依据残差,拟合优度等),不是体现在其对已有的数据拟合能力上,而是对后来的预测能力,既泛化能力。 网络的预测能力(也称泛化能力、推广能力)与训练能力(也称逼近能力、学习能力)的矛盾。一般情况下,训练能力差时,预测能力也差,并且一定程度上,随训练能力地提高,预测能力也提高。但这种趋势有一个极限,当达到此极限时,随训练能力的提高,预测能力反而下降,即出现所谓“过拟合”现象。此时,网络学习了过多的样本细节,而不能反映样本内含的规律。 过拟合是什么,怎么处理?
神经网络计算不能一味地追求训练误差最小,这样很容易出现“过拟合”现象,只要能够实时检测误差率的变化就可以确定最佳的训练次数,比如15000次左右的学习次数,如果你不观察,设成500000次学习,不仅需要很长时间来跑,而且最后结果肯定令人大失所望。 避免过拟合的一种方法是:在数据输入中,给训练的数据分类,分为正常训练用、变量数据、测试数据,在后面节将讲到如何进行这种分类。
其中变量数据,在网络训练中,起到的作用就是防止过拟合状态。 学习速率有什么作用?
学习速率这个参数可以控制能量函数的步幅,并且如果设为自动调整的话,可以在误差率
经过快速下降后,将学习速率变慢,从而增加BPNN的稳定性。 此时训练方法采用
采用贝叶斯正则化算法提高 BP 网络的推广能力。
二 主要函数
1 prepca 函数对归一化后的样本数据进行主元分析,从而消除样本数据中的冗余成份,起到数据降维的目的。
[ptrans,transMat] = prepca(pn,0.001);
2、数据归一化 mapminmax(x,minx,maxx)minx为要取得的最小值,maxx为最大值一般归一化到0.1-0.9比较和 2 或者使用mapstd
3 反归一化 y1=mapminmax(‘reverse’,y,ps)
4 dividevec()函数 输入训练数据的乱序排法,以及分类 [trainV,valV,testV] = dividevec(p,t,valPercent,testPercent) p = rands(3,1000);t = [p(1,:).*p(2,:); p(2,:).*p(3,:)]; [trainV,valV,testV] = dividevec(p,t,0.20,0.20);
net = newff(minmax(p),[10 size(t,1)]);
[trainV,valV,testV,trainInd,valInd,testInd] =divideblock(allV,trainRatio,valRatio,testRatio)
[训练数据,变量数据,测试数据,训练数据矩阵的标号,,变量数据标号,测试数据标号] =divideblock(所有数据,训练数据百分比,变量数据百分比,测试数据百分比)
其实dividevec和后面四个分类函数的区别在于,dividevec一般直接在Matlab代码中调用。
而后面四个函数是通过设置网络的divideFcn函数来实现,比如,
net.divideFcn='divideblock',但不是说不可以在代码中像dividevec直接调用
正常数据,是用来正常训练用
变量数据,主要目的是防止训练中出现过拟合状态 测试数据,是用来看训练效果的
net = train(net,trainV.P,trainV.T,[],[],valV,testV); sim(net,validateSamples.P,[],[],validateSamples.T) 2. 任何生成相同的随机数方法:
试着产生和时间相关的随机数,种子与当前时间有关.
rand('state',sum(100*clock))
即: rand('state',sum(100*clock)) ;rand(10)
只要执行 rand('state',sum(100*clock)) ;的当前计算机时间不现,生成的随机值就不现. 也就是如果时间相同,生成的 随机数还是会相同. 在你计算机速度足够快的情况下,试运行一下:
rand('state',sum(100*clock));A=rand(5,5);rand('state',sum(100*clock));B=rand(5,5)
5 常用bp训练函数
Traingdm % 动量梯度下降算法 Traingda 变学习率梯度下降算法
Traingdx % 变学习率动量梯度下降算法
Trainrp RPROP(弹性BP)算法,内存需求最小 大型网络训练方法 % (共轭梯度算法)
traincgf'; % Fletcher-Reeves修正算法
traincgp'; % Polak-Ribiere修正算法,内存需求比Fletcher-Reeves修正算法略大 traincgb'; % Powell-Beal复位算法,内存需求比Polak-Ribiere修正算法略大 % (大型网络的首选算法)
trainscg'; % Scaled Conjugate Gradient算法,内存需求与Fletcher-Reeves修正算法相同,计算量比上面三种算法都小很多
trainbfg'; % Quasi-Newton Algorithms - BFGS Algorithm,计算量和内存需求均比共轭梯度算法大,但收敛比较快
trainoss'; % One Step Secant Algorithm,计算量和内存需求均比BFGS算法小,比共轭梯度算法略大
% (中型网络的首选算法)
'trainlm'; % Levenberg-Marquardt算法,内存需求最大,收敛速度最快 'trainbr'; % 贝叶斯正则化算法
6 trainb用于网络初始阀值和权值训练函数
[net,tr] = trainb(net,tr,trainV,valV,testV);不直接使用由train调用。 训练好的权值、阈值的输出方法是: 输入到隐层权值: 代码: w1=net.iw{1,1} 隐层阈值:代码: theta1=net.b{1} 隐层到输出层权值 代码:w2=net.lw{2,1}; 输出层阈值: 代码:theta2=net.b{2}
net.IW是输入权值,net.LW是层权值,net.b是阈值。直接用命令对这些值赋值就可以了。还有不懂的可以参看帮助
训练好的BP神经网络保存:
因为每次初始化网络时都是随机的,而且训练终止时的误差也不完全相同,结果训练后的权植和阀也不完全相同(大致是一样的),所以每次训练后的结果也略有不同。 找到比较好的结果后,用命令save filen_ame net_name保存网络,可使预测的结果不会变化,在需要的调用时用命令load filename载入。
关于如何找到比较好的结果,进行保存,可以设置误差,在循环中保存,具体使用可以参看bp交通预测优化后的例子 7 最大学习速率
lr=0.99*maxlinlr(p,1);A=purelin(W*P,B);e=T-A;[dW,dB]=learnwh(P,e,lr);B=B+dB。 w为权值,b为阀值。e为误差 神经网络例子。 例子1
本文实习带训练,验证,测试数据的BP函数识别。
x=1:1:100;y=2*sin(x*pi/10)+0.5*randn(1,100);plot(x,y);输入输出 [xg,ps]=mapminmax(x,.1,.9);[yg,pt]=mapminmax(y,.1,.9);归一化到0.1-0.9 [trainV,valV,testV] = dividevec(xg,yg,0.2,0.2);随机抽取训练,验证,测试数据 net=newff(minmax(xg),[15,1],{'tansig','purelin'},'trainscg');建立BP函数 net=train(net,trainV.P,trainV.T,[],[],valV,testV);训练 xtrain=sim(net,trainV.P,[],[],trainV.T);仿真 xvalidation= sim(net,valV.P,[],[],valV.T);仿真 xtest= sim(net,testV.P,[],[],testV.T);仿真
ytrainr=mapminmax('reverse',xtrain,pt);对仿真反归一化
yvalidationr=mapminmax('reverse',xvalidation,pt);对仿真反归一化 ytestr= mapminmax('reverse',xtest,pt);对仿真反归一化 trainr= mapminmax('reverse',trainV.T,pt);反归一化 validationr=mapminmax('reverse',valV.T,pt);反归一化 testr=mapminmax('reverse',testV.T,pt);反归一化 msetrain=mse(trainr-ytrainr);求误差
msevalidation=mse(yvalidationr-validationr);求误差 msetest=mse(testr-ytestr);求误差
例2采用贝叶斯正则化算法提高 BP 网络的推广能力。 ?
在本例中,我们采用两种训练方法,即 L-M 优化算法(trainlm)和贝叶斯正则化
算法(trainbr),用以训练 BP 网络,使其能够拟合某一附加有白噪声的正弦样本数据。其中,样本数据可以采用如下MATLAB 语句生成: 输入矢量:P = [-1:0.05:1];
目标矢量:randn(’seed’,78341223); T = sin(2*pi*P)+0.1*randn(size(P)); 解:本例的 MATLAB 程序如下:
close all clear echo on clc
% NEWFF——生成一个新的前向神经网络 % TRAIN——对 BP 神经网络进行训练 % SIM——对 BP 神经网络进行仿真 pause % 敲任意键开始 clc
% 定义训练样本矢量 % P 为输入矢量 P = [-1:0.05:1]; % T 为目标矢量
randn('seed',78341223); T = sin(2*pi*P)+0.1*randn(size(P)); % 绘制样本数据点 plot(P,T,'+'); echo off hold on;
plot(P,sin(2*pi*P),':'); % 绘制不含噪声的正弦曲线 echo on clc pause clc
% 创建一个新的前向神经网络
net=newff(minmax(P),[20,1],{'tansig','purelin'}); pause clc echo off clc
disp('1. L-M 优化算法 TRAINLM'); disp('2. 贝叶斯正则化算法 TRAINBR'); choice=input('请选择训练算法(1,2):'); figure(gcf);
if(choice==1) echo on clc
% 采用 L-M 优化算法 TRAINLM net.trainFcn='trainlm'; pause clc
% 设置训练参数
net.trainParam.epochs = 500; net.trainParam.goal = 1e-6; net=init(net); % 重新初始化 pause clc
elseif(choice==2) echo on clc
% 采用贝叶斯正则化算法 TRAINBR net.trainFcn='trainbr'; pause clc
% 设置训练参数
net.trainParam.epochs = 500; randn('seed',192736547); net = init(net); % 重新初始化 pause clc end
% 调用相应算法训练 BP 网络 [net,tr]=train(net,P,T); pause
clc
% 对 BP 网络进行仿真 A = sim(net,P); % 计算仿真误差 E = T - A; MSE=mse(E) pause clc
% 绘制匹配结果曲线 close all;
plot(P,A,P,T,'+',P,sin(2*pi*P),':'); pause; clc echo off
RBF网络与BP网络比较: ? ? 见区域 ?
径向基神经网络使用径向基函数(一般使用高斯函数)作为激活函数,神经
元输入空间区域很小,因此需要更多的径向基神经元
RBF网络的输出是隐单元输出的线性加权和,学习速度加快
BP网络使用sigmoid()函数作为激活函数,这样使得神经元有很大的输入可
二 RBF径向基网络
[net,tr] = newrb(P,T,goal,spread,MN,DF)
Spread为分散系数,默认为1, spread分布密度是自己调节的..我建议你多试几次,Spread越大 函数就越平滑 但是对于目标的接近就越不稳定。MN为最大神经元数目 Here we design a radial basis network given inputs P and targets T. P = [1 2 3]; T = [2.0 4.1 5.9]; net = newrb(P,T); P = 1.5; Y = sim(net,P)
众所周知,BP网络用于函数逼近时,权值的调节采用的是负梯度下降法。这个调节权值的方法有局限性,即收敛慢和局部极小等。径向基函数网络(RBF)在逼近能力、分类能力和学习速度等方面均优于BP网络。
Matlab中提供了四个径向基函数相关的函数,它们都是创建两层的神经网络,第一层都是径向基层,第二层是线性层或者竞争层。主要的区别是它们权值、阀值就算函数不同或者是否有阀值。
注意:径向基函数网络不需要训练,在创建的时候就自动训练好了。 1.net = newrbe(P,T,spread)
newrbe()函数可以快速设计一个径向基函数网络,且是的设计误差为0。第一层(径向基层)神经元数目等于输入向量的个数,加权输入函数为dist,网络输入函数为netprod;第二层(线性层)神经元数模有输出向量T确定,加权输入函数为dotprod,网络输入函数为netsum。两层都有阀值。
第一层的权值初值为p',阀值初值为0.8326/spread,目的是使加权输入为±spread时径向基层输出为0.5,阀值的设置决定了每一个径向基神经元对输入向量产生响应的区域。 2.[net,tr] = newrb(P,T,goal,spread,MN,DF)
该函数和newrbe一样,只是可以自动增加网络的隐层神经元数模直到均方差满足精度或者神经元数模达到最大为止。 例子1 P=-1:0.1:1; T=sin(P); spread=1; mse=0.02;
net=newrb(P,T,mse,spread); t=sim(net,P); plot(P,T,'r*',P,t) 例子2 P=-1:0.1:1;
T=[-0.9602 -0.5770 -0.0729 0.3771 0.6405 0.6600 0.4609 0.1336 -0.2013 -0.4344 -0.5000 -0.3930 -0.1647 0.0988 0.3072 0.3960 0.3449 0.1816 -0.0312 -0.2189 -0.3201];
%应用newb()函数可以快速构建一个径向基神经网络,并且网络自动根据输入向量和期望值%进行调整,从而进行函数逼近,预先设定均方差精度为eg以及散布常数sc。 eg=0.02; sc=1;
net=newrb(P,T,eg,sc); figure; plot(P,T,'+'); xlabel('输入');
X=-1:0.1:1; Y=sim(net,X); hold on; plot(X,Y); hold off;
legend('目标','输出')
3.net = newgrnn(P,T,spread)泛回归网络(generalized regression neural network)
广义回归网络主要用于函数逼近。它的结构完全与newbre的相同,但是有以下几点区别(没有说明的表示相同): (1)第二网络的权值初值为T (2)第二层没有阀值
(3)第二层的权值输入函数为normpod,网络输入函数为netsum > > P=0:1:20;
> > T=exp(P).*sin(P); > > net=newgrnn(P,T,0.7); > > p=0:0.1:20; > > t=sim(net,p); > > plot(P,T,'*r',p,t)
4.net = newpnn(P,T,spread)概率神经网络(probabilistic neural network) (主要用于分类问题)
该网络与前面三个最大的区别在于,第二层不再是线性层而是竞争层,并且竞争层没有阀值,其它同newbre,故PNN网络主要用于解决分类问题。PNN是按下面的方式进行分类的:
为网络提供一输入向量后,首先,径向基层计算该输入向量同样本输入向量之间的距离||dist||,该层的输出为一个距离向量;竞争层接受距离向量为输入,计算每个模式出现的概率,通过竞争传递函数为概率最大的元素对应输出1,否则为0。
注意:由于第二层是竞争层,故输入/输出向量必须使用ind2vec/vec2ind函数进行转换,也就是将索引转换为向量或者向量转换为索引。 转换后行数等于数据索引个数,列数等于数据索引中最大的值 > > P=[1 2; 2 2;1 1]' P = 1 2 1 2 2 1
% 判断新旧聚类中心是否一致,是则结束聚类 EqualNum = sum(sum(Centers==OldCenters)); if EqualNum == InDim*ClusterNum, break, end end
% 计算各隐节点的扩展常数(宽度)
AllDistances = dist(Centers',Centers); % 计算隐节点数据中心间的距离(矩阵) Maximum = max(max(AllDistances)); % 找出其中最大的一个距离 for i = 1:ClusterNum % 将对角线上的0 替换为较大的值 AllDistances(i,i) = Maximum+1; end
Spreads = Overlap*min(AllDistances)'; % 以隐节点间的最小距离作为扩展常数
% 计算各隐节点的输出权值
Distance = dist(Centers',SamIn); % 计算各样本输入离各数据中心的距离 SpreadsMat = repmat(Spreads,1,SamNum);
HiddenUnitOut = radbas(Distance./SpreadsMat); % 计算隐节点输出阵 HiddenUnitOutEx = [HiddenUnitOut' ones(SamNum,1)]'; % 考虑偏移 W2Ex = SamOut*pinv(HiddenUnitOutEx); % 求广义输出权值 W2 = W2Ex(:,1:ClusterNum); % 输出权值 B2 = W2Ex(:,ClusterNum+1); % 偏移 % 测试
TestDistance = dist(Centers',TestSamIn); TestSpreadsMat = repmat(Spreads,1,TestSamNum);
TestHiddenUnitOut = radbas(TestDistance./TestSpreadsMat); TestNNOut = W2*TestHiddenUnitOut+B2; plot(TestSamIn,TestNNOut,'k-') W2 B2
2.基于梯度法的RBF 网设计算法
SamNum = 100; % 训练样本数 TargetSamNum = 101; % 测试样本数 InDim = 1; % 样本输入维数 UnitNum = 10; % 隐节点数 MaxEpoch = 5000; % 最大训练次数 E0 = 0.9; % 目标误差
% 根据目标函数获得样本输入输出 rand('state',sum(100*clock)) NoiseVar = 0.1;
Noise = NoiseVar*randn(1,SamNum); SamIn = 8*rand(1,SamNum)-4;
SamOutNoNoise = 1.1*(1-SamIn+2*SamIn.^2).*exp(-SamIn.^2/2); SamOut = SamOutNoNoise + Noise; TargetIn = -4:0.08:4;
TargetOut = 1.1*(1-TargetIn+2*TargetIn.^2).*exp(-TargetIn.^2/2); figure hold on grid
plot(SamIn,SamOut,'k+') plot(TargetIn,TargetOut,'k--') xlabel('Input x'); ylabel('Output y');
Center = 8*rand(InDim,UnitNum)-4; SP = 0.2*rand(1,UnitNum)+0.1; W = 0.2*rand(1,UnitNum)-0.1;
lrCent = 0.001; % 隐节点数据中心学习系数 lrSP = 0.001; % 隐节点扩展常数学习系数 lrW = 0.001; % 隐节点输出权值学习系数
ErrHistory = []; % 用于记录每次参数调整后的训练误差 for epoch = 1:MaxEpoch
AllDist = dist(Center',SamIn); SPMat = repmat(SP',1,SamNum); UnitOut = radbas(AllDist./SPMat); NetOut = W*UnitOut; Error = SamOut-NetOut;
%停止学习判断 SSE = sumsqr(Error)
% 记录每次权值调整后的训练误差 ErrHistory = [ErrHistory SSE]; if SSE CentGrad = (SamIn-repmat(Center(:,i),1,SamNum))... *(Error.*UnitOut(i,*W(i)/(SP(i)^2))'; SPGrad = AllDist(i,.^2*(Error.*UnitOut(i,*W(i)/(SP(i)^3))'; WGrad = Error*UnitOut(i,'; Center(:,i) = Center(:,i) + lrCent*CentGrad; SP(i) = SP(i) + lrSP*SPGrad; W(i) = W(i) + lrW*WGrad; end end % 测试 TestDistance = dist(Center',TargetIn); TestSpreadsMat = repmat(SP',1,TargetSamNum); TestHiddenUnitOut = radbas(TestDistance./TestSpreadsMat); TestNNOut = W*TestHiddenUnitOut; plot(TargetIn,TestNNOut,'k-') % 绘制学习误差曲线 figure hold on grid [xx,Num] = size(ErrHistory); plot(1:Num,ErrHistory,'k-'); 3.基于OLS 的RBF 网设计算法 SamNum = 100; % 训练样本数 TestSamNum = 101; % 测试样本数 SP = 0.6; % 隐节点扩展常数 ErrorLimit = 0.9; % 目标误差 % 根据目标函数获得样本输入输出 rand('state',sum(100*clock)) NoiseVar = 0.1; Noise = NoiseVar*randn(1,SamNum); SamIn = 8*rand(1,SamNum)-4; SamOutNoNoise = 1.1*(1-SamIn+2*SamIn.^2).*exp(-SamIn.^2/2); SamOut = SamOutNoNoise + Noise; TestSamIn = -4:0.08:4; TestSamOut = 1.1*(1-TestSamIn+2*TestSamIn.^2).*exp(-TestSamIn.^2/2); figure hold on grid plot(SamIn,SamOut,'k+') plot(TestSamIn,TestSamOut,'k--') xlabel('Input x'); ylabel('Output y'); [InDim,MaxUnitNum] = size(SamIn); % 样本输入维数和最大允许隐节点数 % 计算隐节点输出阵 Distance = dist(SamIn',SamIn); HiddenUnitOut = radbas(Distance/SP); PosSelected = []; VectorsSelected = []; HiddenUnitOutSelected = []; ErrHistory = []; % 用于记录每次增加隐节点后的训练误差 VectorsSelectFrom = HiddenUnitOut; dd = sum((SamOut.*SamOut)')'; for k = 1 : MaxUnitNum % 计算各隐节点输出矢量与目标输出矢量的夹角平方值 PP = sum(VectorsSelectFrom.*VectorsSelectFrom)'; Denominator = dd * PP'; [xxx,SelectedNum] = size(PosSelected); if SelectedNum>0, [lin,xxx] = size(Denominator); Denominator(:,PosSelected) = ones(lin,1); end Angle = ((SamOut*VectorsSelectFrom) .^ 2) ./ Denominator; % 选择具有最大投影的矢量,得到相应的数据中心 [value,pos] = max(Angle); PosSelected = [PosSelected pos]; % 计算RBF 网训练误差 HiddenUnitOutSelected = [HiddenUnitOutSelected; HiddenUnitOut(pos,]; HiddenUnitOutEx = [HiddenUnitOutSelected; ones(1,SamNum)]; W2Ex = SamOut*pinv(HiddenUnitOutEx); % 用广义逆求广义输出权值 W2 = W2Ex(:,1:k); % 得到输出权值 B2 = W2Ex(:,k+1); % 得到偏移 NNOut = W2*HiddenUnitOutSelected+B2; % 计算RBF 网输出 SSE = sumsqr(SamOut-NNOut) % 记录每次增加隐节点后的训练误差 ErrHistory = [ErrHistory SSE]; if SSE < ErrorLimit, break, end % 作Gram-Schmidt 正交化 NewVector = VectorsSelectFrom(:,pos); ProjectionLen = NewVector' * VectorsSelectFrom / (NewVector'*NewVector); VectorsSelectFrom = VectorsSelectFrom - NewVector * ProjectionLen; end UnitCenters = SamIn(PosSelected);%%%%%%%%%%% % 测试 TestDistance = dist(UnitCenters',TestSamIn);%%%%%%%% TestHiddenUnitOut = radbas(TestDistance/SP); TestNNOut = W2*TestHiddenUnitOut+B2; plot(TestSamIn,TestNNOut,'k-') k UnitCenters W2 B2 三Elman神经网络 Elman网络一般不推荐大步训练方法比如trainlm和trainrp Elman神经网络是一种带有反馈的两层BP网络结构,其反馈连接是从隐含层的输出到其输入端。这种反馈方式使得Elman网络能够探测和识别时变模式。 其隐含层又称为反馈层,神经元的传递函数为tansig,输出层为线性层,传递函数为purelin。这种特殊的两层网络可以任意精度逼近任意函数,唯一的要求是其隐含层必须具
正在阅读:
matlab神经网络学习总结11-27
涡河水质演变及原因分析03-02
化学教案-有关化学方程式的计算03-20
我推荐的一本书作文共计6篇04-01
无定河流域概况04-23
六规讲解材料汇总04-01
怎样写加工资申请02-24
泡茶作文400字07-15
化妆晚会02-17
学习型组织的企业文化创新分析05-07
- exercise2
- 铅锌矿详查地质设计 - 图文
- 厨余垃圾、餐厨垃圾堆肥系统设计方案
- 陈明珠开题报告
- 化工原理精选例题
- 政府形象宣传册营销案例
- 小学一至三年级语文阅读专项练习题
- 2014.民诉 期末考试 复习题
- 巅峰智业 - 做好顶层设计对建设城市的重要意义
- (三起)冀教版三年级英语上册Unit4 Lesson24练习题及答案
- 2017年实心轮胎现状及发展趋势分析(目录)
- 基于GIS的农用地定级技术研究定稿
- 2017-2022年中国医疗保健市场调查与市场前景预测报告(目录) - 图文
- 作业
- OFDM技术仿真(MATLAB代码) - 图文
- Android工程师笔试题及答案
- 生命密码联合密码
- 空间地上权若干法律问题探究
- 江苏学业水平测试《机械基础》模拟试题
- 选课走班实施方案
- 神经网络
- 总结
- matlab
- 学习
- 11.23练习:固定长度子网划分
- 操作系统经典答案
- 浅谈经济周期对商业银行经营状况的影响
- 2012年江苏省大学生电子设计竞赛(TI杯)E题自动射击报靶装置
- 克朗斯吹瓶机模具更换过程
- 全国高中生化学素质和能力竞赛 - 图文
- 某某市综合物流园建设项目可行性研究报告
- 关于注意力培养致家长的一封信
- 人教版三年级数学上册第四单元万以内的加法和减法(二)达标测试卷(含答案)
- 犬常用药物剂量及用法
- 炮手
- 教学实习教案及讲稿模板
- 《信息经济学》练习题库
- C语言图形输出习题
- 计算机v-b考试系统
- 科技作品展览会策划书
- 企业选人传统方法与现代心理测量技术比较与应用
- 电工电子理论试题(大量)
- 中央美术学院中国美术史考研参考书笔记资料汇编
- 贵州省普通高中学业水平考试模拟卷语文试题(解析版)