极端学习机:理论和应用 - 图文

更新时间:2023-12-01 13:33:01 阅读量: 教育文库 文档下载

说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。

极端学习机:理论和应用

摘要

过去的几十年里,前馈神经网络的学习速度远比需求的慢,且在应用方面有很大的障碍。两个关键因素是:(1)基于缓慢的梯度学习算法广泛用于神经网络训练;(2)所有网络的参数通过这样的学习算法调优迭代。与传统的实现不同,本文提出了一种新的学习算法称为单隐藏层前馈神经网络(SLFNs)的极端学习机,该算法随机选择隐藏节点和分析确定SLFNs权值的输出。从理论上讲,该算法倾向于在极快速度的学习中提供良好的泛化性能。基于一些人为的和真正的基准函数逼近和分类问题的实验结果,包括非常大的复杂的应用表明:在大多数情况下,该算法可以产生良好的泛化性能,比传统流行的前馈神经网络学习速度快几千倍。

关键词:前馈神经网络;反向传播算法;极端学习机;SVM;实时学习;随机节点 1.绪论

前馈神经网络依靠其能力已广泛应用于许多领域:(1) 直接从输入样本近似复杂非线性映射;(2)对于一个使用经典参数化技术很难处理大类自然和人工现象提供模型。另一方面,缺乏加快神经网络的学习算法。传统的学习算法通常远低于需求。通过使用传统的方法可能需要数小时数天甚至更多的时间来训练神经网络,是不足为奇的。

从数学的角度来看,研究前馈神经网络的逼近能力都集中在两个方面:紧凑输入集的逼近和有限集合训练样本的逼近。许多研究人员探究了标准多层前馈神网络的逼近能力。Hornik[7]证明了如果激活函数是连续的,有界的,非常量的,然后可以通过依靠紧凑输入集的神经网络近似计算连续映射。Leshno[17]的结果改进Hornik[7]和证明含有非多项式的前馈网络可以估计(测量)连续函数。在实际应用中,用有限的训练集训练神经网络。对于有限训练集的函数逼近,Huang and Babri [11]显示,最多具有N个隐藏节点和几乎所有非线性激活函数的单层前馈神经网络(SLFN),可以得到N个不同的观察值。应当注意,在前馈神经网络的所有之前的理论研究文章和几乎所有实际的学习算法中,需要调整输入权重(连接输入层到第一个隐层)和隐藏层阈值。

传统上,需要调整前馈网络的所有参数,从而存在不同层之间的依赖关系(权重参数和阈值)。过去几十年,基于梯度下降的方法主要用于前馈经网络的各种学习算法。然而,由于不当的学习步骤或者可能容易收敛到局部最小值,基于梯度下降学习方法非常缓慢。为了获得更好的学习性能,这样的学习算法需要许多迭代学习步骤。

[23,10]所示,随机选择的输入权重和隐藏层的阈值(这样的隐藏节点可以被称为随机隐藏节点)的SLFNs(N个隐藏节点)可以学习不同观察值。与所有参数需要调整的前馈网络的流行的思考和大多数实际的实现不同,在应用中,它可能不需要调整输入权重和第一个隐藏层阈值。事实上,在我们的文章[16]中,基于人工和实际大型应用的一些仿真结果表明,该方法不仅使学习非常快,而且会产生良好的泛化性能。

在本文中,我们首先严格证明了,如果隐藏层的激活函数是无限可导的,SLFNs的输入权重和隐藏层阈值可以随机分配。在随机地选择输入权重和隐藏层阈值之后,SLFNs可以简单地视为一个线性系统,其输出权重(隐藏层到输出层连接),可以通过隐层输出矩阵的Moore–Penrose广义逆操作分析确定。基于这一

概念,提出了一种简单学习算法SLFNs称为极端学习机(ELM),它的学习速度比反向传播算法(BP)的传统前馈网络学习快成千上万倍,同时能获得更好的泛化性能。不同的于传统的学习算法,本文提出的学习算法不仅倾向于达到最小训练误差,而且使权重的范数达到最小。Bartlett有关前馈神经网络泛化性能[1]理论陈述了前馈神经网络能达到更小的训练误差。权重的规范越小,网络的泛化性能更好。因此,本文提出的学习算法对前馈神经网络具有良好的泛化性能。

新提出的算法可以很容易地学习实现,达到训练误差最小,获得最小的权重范数和良好的泛化性能,运行得非常快。为了与其他受欢迎的SLFN学习算法区分,在本文中,它被称为极端学习机。

本文组织如下。第二节严格证明了如果隐藏层的激活函数无限可导,那么SLFNs的输入权重和隐藏层的阈值可以随机分配。第三节进一步提出了单隐藏层的ELM学习算法。第四节提出了性能评估。第五节给出讨论和结论。附录介绍了一般线性系统的Moore-Penrose广义逆,最小范数的最小二乘解在ELM学习算法中发挥着重要的作用。

2. 带有随机隐藏节点的单隐藏层前馈神经网络

给定N个不同样本(xi,ti),xi?[xi1,xi2,...,xin]T?Rn和ti?[ti1,ti2,...,tim]T?Rm,

~~具有N个节点N?N,激活函数为g(x)的SLFN的数学模型为:

??g(x)???g(wiiiii?1i?1N~N~i?xj?bi)?oj (1)

j?1,...,N 其中,wi?[wi1,wi2,...,win]T是连接第i个隐藏节点和输入节点的权重向量,

?i?[?i1,?i2,...,?im]T是连接第i个隐藏节点和输出节点的权重向量,bi是第i个隐藏层节点的阈值。(wi,xj)表示wi和xj的内积。本文选择线性输出节点。

~带有N个隐藏节点的SLFNs,激活函数g(x)能够零误差逼近N个训练样本,存在使得(2)成立的?i,wi和bi。

??g(w?xiii?1N~j?bi)?tj (2)

j?1,...,N上述N个方程可以写简洁:

H??T (3)

其中,

H(w1,...,w~,b1,...,b~,x1,...,xN)NN?g(w1?x1?b1)?g(w~?x1?b~)? (4) NN?????????g(w?x?b)?g(w?x?b)?~~1N1N~?NN???N?NT??T???t1?1????????T???? (5)

??T?T??tN~~??N?m??N??N?m

在Huang et al. [11,10]中,H称为神经网络的隐藏层输出矩阵;H的第i列是输入x1,x2,...,xN在第i个隐藏节点的输出。

~ 如果激活函数g是无限可导的,我们能证明所需数量的隐藏节点个数N?N 严格说来,我们有:

定理 2.1 给定一个具有N个隐藏节点以及在任何区间都无限可导的激活函数g:R?R的标准SLFN。对N个任意不同样本(xi,ti),xi?Rn,ti?Rm,SLFN在

wi?Rn和bi?R随机产生的情况下,形成的隐藏层输出矩阵H是可逆的,且||H?-T||?0

证明.H的第i列向量c(bi)?[gi(x1),...,gi(xN)]?[gi(wi?x1?bi),...,gi(wi?xN?bi)]属

(a,b)于欧几里得空间R,其中bi?是任何时间间隔的R。

遵循Tamura and Tateishi ( [23],p.252)同样的证明方法,我们之前的文章([10],

定理2.1,它可以很容易地证明向量c不属于任何维度小于N的子空间。

基于连续概率分布随机产生的wi,我们假设所有的k?k'有wi?xk?wi?xk'。猜想向量c是一个N-1维的子空间,则存在这个子空间的一个正交向量?:

(?,c(bi)?c(a))??1?g(bi?d1)??2?g(bi?d2) (6)

????N?g(bi?dN)?z?0其中,dk?wk?xk,k?1,...,N,z???c(a),?bi?(a,b)。 假设?N?0,则等式(6)可进一步写为:

g(bi?dN)????pg(bi?dp)?p?1N?1z?N (7)

其中?p??p/?N,P?1,...N?1。

由于g(x)在任何区间内无限可导,我们有:

g(bi?dN)????pg(l)(bi?dp)(l)p?1N?1 (8)

l?1,2,...,N,N?1,...其中g(l)是g关于bi的第l次导数。然而,对于多于N-1个的可导的线性等式只有

N-1个自由系数是矛盾的。所以,向量c不属于任何维数小于N的子空间。

因此,从任何区间(a,b)随机选择N个隐藏节点的阈值b1,...,bN使得对应的

c(b1),c(b2),...c(bN)属于RN是可能的。这意味着,任何从Rn和R区间中选择的权

重向量wi和阈值bi,H的列向量都是满秩的。

Huang and Babri [11]指出,这种激活函数包括s形以及径向基函数、正弦、余弦、指数以及许多非正规的函数。

定定理 2.2. 对于任意小的??0,及在任何区间都无限可导的激活函数

~g:R?R,对N个任意不同样本(xi,ti),xi?Rn,ti?Rm,总存在N?N个隐节点

~?~-TN?m||??。 的SLFN,使得在wi?Rn和bi?R随机产生的情况下,||HN?NN?m~证明:定理的有效性是很明显的,否则根据定理2.1只能选择N?N使得

~?~||HN?N-TN?m||?? N?m3. 极端学习机(ELM)的提出

根据定理2.1和2.2,我们提出了一个极简单有效的方法训练SLFNs。

3.1 传统的基于梯度的SLFNs的解决方案

~传统上,为了训练SLFN,我们希望找到特殊的wi,bi,?(i?1,...N)使得

H(w1,...,w~,b1,...,b~)??TNN????? (9)

NN?minH(w1,...,w~,b1,...,b~)??Twi,bi,?(9)与最小化损失函数(10)是等价的。

E??(??ig(wi?xj?bi)?tj)2 (10)

j?1i?1NN~当H是未知的,基于梯度的学习算法通常用于搜索的最小的||H?-T||。 通过使用基于梯度的学习算法最小化的过程,权重(wi,?i)和阈值(bi)的集合是向量W,迭代调整如下:

?E(W) (11) ?W用于前馈神经网络的学习算法是从输出到输入的传播可以有效地?是学习速率。

计算梯度的BP学习算法。BP学习算法有几个问题:

(1)学习速率?太小,算法收敛很缓慢。当?太大,算法变得不稳定并且发散。 (2)影响BP学习算法性能的另一个特点是局部最小值的存在[6]。学习算法在一个远于全局最小值的局部最小值处停止是不符合需求的。

(3)使用BP算法可导致练神经网络的过度训,使其泛化能力变差。因此,需要验证,以及在极小化过程中引入停机准则。

(4)基于梯度的学习在大多数应用程序中都非常耗时。 本文的目的是用基于梯度的算法解决上述问题,并提出一种高效的前馈神经网络学习算法。

3.2 SLFNs的最小范数的最小二乘(LS)解决方案的提出

不像传统的函数逼近理论需要调整输入权重和隐藏层阈值,定理2.1和2.2严格证明,只要激活函数是无限可导,输入权重和隐藏层阈值可以随机分配。不同于一般理解的SLFNs的所有参数需要调整,输入权重wi和隐藏层阈值(bi)不一定需

Wk?Wk?1??要调节,并且一旦随机参数在算法学习之前被确定隐藏层输出矩阵H能保持不变,这是有趣和令人惊讶的。从等式(9)看来,对固定的输入权重wi和隐藏层

?: 阈值b,训练一个SLFN等价于找到线性系统H??T一个最小二乘解?iH(w1,...,w~,b1,...,b~)??TNN? (12)

NN?minH(w1,...,w~,b1,...,b~)??T~如果隐藏节点的数量N等于训练样本的个数N,当输入权重wi和隐藏层阈值bi已

?产生。则矩阵H是方阵,并且是可逆的。SLFNs可以零错误的逼近这些训练样本。

~ 然而,在大多数情况下,隐藏节点的数量远低于训练样本的数量,即N《N,

~H不是方阵,可能不存在wi,bi,?(i?1,...N)使得H??T。根据附录中的定理5.1,以上线性系统的最小范数的最小二乘解是:

??H?T (13)

?其中H?是H的广义逆矩阵[22,19]。

备注1. 正如在附录中所讨论的,我们有重要属性:

??H?T是线性系统H??T的一个最小二乘解,最(1)最小训练误差。特殊解?小训练误差可由其得到:

??T||?||HH?T?T||?min||H??Y|| (14) ||H??尽管几乎所有的学习算法都希望达到最小训练错误,然而,但由于局部极小问题,

或在应用程序中训练迭代趋于无穷不现实等原因,往往难以实现。

??H?T有最小范数:(2)权重最小范数。在H??T所有最小二乘解中特殊解??||?||H?T||?||?||,||? (15) ~N?N???{||H??T||?||Hz?T||,?z?R}.??H?T是唯一的。 (3)在H??T的最小范数的最小二乘解?3.3 SLFNs学习算法的提出

本小节给出SLFNs的一种简单学习方法。该方法被称为极端学习机。具体算法可简单描述如下:

ELM算法:给定训练样本集合??{(xi,ti)|xi?Rn,ti?Rm}iN?1,激活函数g(x)和隐

~藏单元个数N.

~(1)指定任意输入输入权值和阈值wi,bi(i?1,...N); (2)计算隐藏层输出矩阵H; (3)计算输出权重?。

??H?T (16) ?其中T?[t1,...,tN]T

备注2 定理2.1所示,在理论上这个算法适用于任何无限微分激活函数g(x)。

Huang and Babri [11]指出,这种激活函数包括s形以及径向基函数、正弦、余弦、指数以及许多非正规的函数。根据定理2.2,所需隐藏节点的个数上限是不同训练

~样本的数量,即N?N。

备注3 一些文章[11,23,10,9,4]表明,带有N个隐藏节点的SLFNs可以学习N个不同的观察值。Tamura and Tateishi [23] and Huang [10,9]严格证明了随机选择S型隐藏节点(输入权重和隐藏层的阈值随机生成)的SLFNs(N个隐藏节点)可以学习N个不同的观察值。Huang et al. [11,9]严格证明了如果输入权重和隐藏层的阈值允许调整(类似大多数传统算法的实现),SLFNs最多N个隐藏节点,大多数非线性激活函数可以学习N个不同的观察值,激活函数包括可导,不可导,连续,非连续的函数等。

本文严格证明了对任何无限可导的激活函数,带有N个隐藏节点的SLFNs可以学习N不同样本。在学习错误允许的条件下,SLFNs要求小于N隐藏节点。不同于以前的文章[11,23,10,9,4]和本文介绍的ELM算法,Ferrari and Stengel [4]表明,N个s形隐藏节点的SLFNs,输入权重随机生成,但隐藏阈值适当调整完全可以学习N个不同的观察值。Ferrari and Stengel [4]的文章指出隐藏节点不是随机生成,尽管输入权重随机产生,隐藏层阈值需要根据输入权重和输入的训练数据来决定(cf Eq.(18)[4])。

备注4 一些文章[23,10,16,9,4],建议模块化的网络,将训练数据分成L个子集,SLFNs分别学习每个子集。假设第i个SLFN的隐藏节点个数是si。Huang[10,16,9]

ELM算法进行了50次试验。由于复杂的情况下训练SVM需要很长时间,SVM进行只了1次实验。从表12看出,提出的ELM学习算法比SVM学习算法得到更好的泛化性能。ELM学习算法只花了1.6分钟学习而SVM训练需要花近12小时。学习速度极大地增加了430倍。另一方面,由于SVM得到支持向量比ELM需要的隐藏节点大很多,SVMs的测试数据的时间比ELM多480倍。SVM需要超过5.5小时的时间去测试481012个样本。但是,ELM只需要不到1分钟的反应时间测试同样的样本。这意味着,在实际应用中,训练和部署后的ELM比SVM更快得到新的观测值。应该注意的是,为了获得良好的性能,SVM需要花费很长时间得到适合的参数。事实上,我们在这种情况下模拟得到的SVM的泛化性能远远高于文献[3]。

对于这个应用程序,我们尝试运行MATLAB提供的效率最优BP包,然而,它 总是耗尽内存,有太多的变量(参数)中需要模拟,这意味着,在我们普通的PC下应用程序运行太大。另一方面,据报道[3]使用基于梯度学习的SLFNs算法只能达到更低的测试精度(81.85%)低于ELM的测试精度(90.21%)。 5.讨论和结论

本文提出了一种简单高效的单隐藏层前馈神经网络(SLFNs)学习算法,称为极端学习机(ELM),本文也进行了严格的证明 。提出的ELM有一些不同于传统流行的基于梯度的前馈神经网络学习算法的有趣和有效的特性。

(1)ELM的学习速度非常快。在我们的模拟中,ELM的学习阶段能够在几秒或小于几秒时间内完成许多应用程序。以前,似乎存在虚拟速度障碍,大多数经典学习算法不能突破它。在简单的应用程序中,使用古典的学习算法训练前馈网络需要花费很长时间是常见的。

(2)在大多数情况下,ELM比基于梯度学习的反向传播方法有更好的泛化性能。 (3)传统经典的基于梯度学习算法可能面临几个问题,如局部最小值、不恰当的学习速率和过度拟合,等等。传统的学习算法可能需要使用一些方法来避免这些问题,如权重衰变和早期停止方法。ELM没有这些琐碎的问题,直接达到简单的解决方案。与大多数前馈神经网络的学习算法相比,ELM的学习算法要简单很多。 (4)传统经典的基于梯度的学习算法只对可导的激活函数有效,而ELM算法可以用许多非线性激活函数来训练SLFNs[15]。比较SLFNs不同的激活函数的性能超出了本文的研究范围,可能是未来的研究工作。在未来的工作,比较s形RBF激活激活函数的ELM是有趣的。

基于梯度学习的反向传播方法,能够被用于多个隐藏层的前馈神经网络。而ELM算法只对单隐藏层前馈网络(SLFNs)有效。幸运的是,理论上SLFNs能够逼近任何连续函数和实现分类问题的应用[12]。因此,ELM算法可以有效地用于许多 应用。从大多数情况下观察到,BP的测试时间比ELM短。

尽管比较前馈神经网络和其他其他学习方法不是本文主要的。在我们的模拟中,简单的比较了ELM和SVM,在某种因素上,ELM比SVM学习快达千倍。在我们的模拟中,尤其是森林类型预测应用,对于未知的观察值,SVM训练的反应比

前馈神经网络更慢。对相同的应用,SVM算法有大量的支持向量而前馈神经网络需要少量隐藏节点。在这次的应用中,SVM可能需要花费几个小时的时间预测数据集,而ELM更适合这个应用,请求快速预测和反应能力。

本文证明,ELM有效地用于许多应用。然而,两个有趣的方面仍然开放:ELM的逼近能力和稀疏的高维应用的性能,同时也是目前我们研究的内容。 附录A

在本节中,介绍了Moore-Penrose广义逆。我们也考虑,在欧几里得空间A?Rm?n,y?R中,一般线性系统Ax?y最小范数的最小二乘解。[10,23]所示,如果输入权重和隐藏层阈值是随机生成的,SLFNs实际上是一个线性系统。 A.1 Moore-Penrose广义逆

一般线性系统Ax?y,A可能是奇异的甚至可能不是方阵,能够使用Moore-Penrose广义逆简单解决。

定义5.1 (Serre [22], Rao and Mitra [19]).矩阵G?Rm?n称为矩阵A?Rm?n的Moore-Penrose广义逆,若G满足:

AGA ?A; GAG ?G; (AG)T?AG; (GA)T? GA (18) 为了方便起见,以下将A的Moore-Penrose广义逆简单记为A?。 A.2 最小范数最小二乘解

?满足: 对于一般线性系统Ax?y,若x??y||?min||Ax?y|| (19) ||Axx?是Ax?y的一个最小二乘解。 其中||?||表示欧式范数,则称x定义5.2 称x0?Rn是Ax?y的一个最小范数最小二乘解,如果它满足:

||x0||?||x||,?x?{||Ax?y||?||Az?y||,?z?Rn} (20)

从定义5.2可以看出:最小范数最小二乘解是所有最小二乘解中范数最小的。 备注. 由定理5.1可以看出,ELM算法有以下性质:

(1)特殊解x0?A?y是线性系统Ax?y的一个最小二乘解:

||Ax0?y||?||AA?y?y||?min||Ax?y|| (21)

x(2)特殊解x0?A?y在所有最小二乘解中有最小范数: ||x0||?||A?y||?||x||,?x?{||Ax?y||?||Az?y||,?z?Rn} (22)

(3)Ax?y的最下饭书最小二乘解是唯一的,即x?A?y。

参考文献:

[1] P.L. Bartlett, The sample complexity of pattern classification with neural networks: the size of the weights is more important than the size of the network, IEEE Trans. Inf. Theory 44 (2) (1998) 525–536.

[2] C. Blake, C. Merz, UCI repository of machine learning databases, in:

hhttp://www.ics.uci.edu/mlearn/MLRepository.htmli, Department of Information and Computer Sciences, University of California, Irvine, USA, 1998.

[3] R. Collobert, S. Bengio, Y. Bengio, A parallel mixtures of SVMs for very large scale problems, Neural Comput. 14 (2002) 1105–1114.

[4] S. Ferrari, R.F. Stengel, Smooth function approximation using neural networks, IEEE Trans. Neural Networks 16 (1) (2005) 24–38.

[5] Y. Freund, R.E. Schapire, Experiments with a new boosting algorithm, in: International Conference on Machine Learning,1996, pp. 148–156.

[6] S. Haykin, Neural Networks: A Comprehensive Foundation, Prentice-Hall, New Jersey, 1999.

[7] K. Hornik, Approximation capabilities of multilayer feedforward networks, Neural Networks 4 (1991) 251–257.

[8] C.-W. Hsu, C.-J. Lin, A comparison of methods for multiclass support vector machines, IEEE Trans. Neural Networks 13 (2) (2002)415–425.

[9] G.-B. Huang, Learning capability of neural networks, Ph.D. Thesis,Nanyang Technological University, Singapore, 1998.

[10] G.-B. Huang, Learning capability and storage capacity of twohidden-layer feedforward networks, IEEE Trans. Neural Networks14 (2) (2003) 274–281.

[11] G.-B. Huang, H.A. Babri, Upper bounds on the number of hidden neurons in feedforward networks with arbitrary bounded nonlinear activation functions, IEEE Trans. Neural Networks 9 (1) (1998) 224–229.

[12] G.-B. Huang, Y.-Q. Chen, H.A. Babri, Classification ability of single hidden layer feedforward neural networks, IEEE Trans. Neural Networks 11 (3) (2000) 799–801. [13] G.-B. Huang, C.-K. Siew, Extreme learning machine: RBF network case, in: Proceedings of the Eighth International Conference on Control, Automation, Robotics and Vision (ICARCV 2004), Kunming, China, 6–9 December, 2004.

[14] G.-B. Huang, C.-K. Siew, Extreme learning machine with randomly assigned RBF kernels, Int. J. Inf. Technol. 11 (1) (2005).

[15] G.-B. Huang, Q.-Y. Zhu, K.Z. Mao, C.-K. Siew, P. Saratchandran, N. Sundararajan, Can threshold networks be trained directly?, IEEE Trans. Circuits Syst. II 53 (3) (2006) 187–191.

[16] G.-B. Huang, Q.-Y. Zhu, C.-K. Siew, Real-time learning capability of neural networks, Technical Report ICIS/45/2003, School of Electrical and Electronic Engineering, Nanyang Technological University, Singapore, April 2003.

[17] M. Leshno, V.Y. Lin, A. Pinkus, S. Schocken, Multilayer feedforward networks with a nonpolynomial activation function can approximate any function, Neural Networks 6 (1993) 861–867.

[18] J.M. Ortega, Matrix Theory, Plenum Press, New York, London,1987. [19] C.R. Rao, S.K. Mitra, Generalized Inverse of Matrices and its Applications, Wiley, New York, 1971. [20] G. Ra¨ tsch, T. Onoda, K.R. Mu¨ ller, An improvement of AdaBoost to avoid overfitting, in: Proceedings of the Fifth International Conference on Neural Information Processing (ICONIP’1998), 1998.

[21] E. Romero, A new incremental method for function approximation using feed-forward neural networks, in: Proceedings of INNS-IEEE International Joint Conference on Neural Networks (IJCNN’2002),2002, pp. 1968–1973.

[22] D. Serre, Matrices: Theory and Applications, Springer, New York,2002.

[23] S. Tamura, M. Tateishi, Capabilities of a four-layered feedforward neural network: four layers versus three, IEEE Trans. Neural Networks 8 (2) (1997) 251–255.

[24] D. Wang, G.-B. Huang, Protein sequence classification using extreme learning machine, in: Proceedings of International Joint Conference on Neural Networks (IJCNN2005), Montreal, Canada, 31 July–4 August, 2005.

[25] D.R. Wilson, T.R. Martinez, Heterogeneous radial basis function networks, in: Proceedings of the International Conference on Neural Networks (ICNN 96), June 1996, pp. 1263–1267.

[26]G.-B.Huang,L.Chen,C.-K.Siew,Universal approximation using incremental netw- orks with random hidden computation nodes,IEEE Trans.Neural Networks17(4) 2006.

本文来源:https://www.bwwdw.com/article/fn2t.html

Top