多核极限学习机算法仿真实证研究

0 引言。

极限学习机(ELM)是由黄广斌等人首先提出的一种单向隐藏层神经网络中的快速学习算法,吸引了学者和工程技术人员很大的研究兴趣。ELM的输入权重和偏移量随机选择,输出权值通过最小二乘估计能得到最优解。ELM不仅获得最小的训练误差而且能保证最小的权值范数。在回归和分类问题上,ELM算法表现出了很好的泛化能力以及高的精度。

ELM的隐藏层的个数对ELM来说是一个很重要的参数,然而需要事先通过费时的方法进行确定,后来,核极限学习机(KELM)随之诞生,很好地避免了上述问题。KELM将激励函数转化为核映射。与其他核方法一样,KELM的核心问题就是核函数的选择问题。核函数选择恰当与否对KELM将产生很大的影响力。常见的核函数高斯核,多项式核等。但是,目前的核极限学习机主要局限于单核方法,由于不同的核函数具有的特性并不相同,选取不同核函数极限学习机的拟合效果差距很大,本文提出基于多个核函数加权组合的极限学习机算法,并应用于仿真实例,结果证明,本文方法的预测效果明显优于单核极限学习机

极限学习机算法

ELM是一个单隐藏层反馈神经网络,有三层结构:输入层,输出层,隐藏层。假设ELM的隐藏层节点数为■,则输出模型表示为:

多核极限学习机算法

ELM中的只要满足Mercer定理,就可以作为ELM的核函数,核函数的选择对ELM的表现力起着非常重要的作用,如高斯径向基核函数多项式函数等,但是往往每个核函数的特性并不相同,在不同的应用领域都各有它的优势,而且单独的一个核函数并不能对所给样本充分学习,文中提出了一种基于多个单核函数加权组合极限学习机算法,可以构造权重对不同的核函数进行加权组合,以下假定有两个核函数,对多核极限学习机推导如下:

引入结构风险函数,二次规划问题转化如下:

仿真实验。

为了验证多核方法的表现力,以下仿真实例将本文方法与单核极限学习机进行比较。本文将选取高斯核k(xi,xj)=exp输入数据xi[-10,10]区间均匀采样生成400个样本,从中随机选择一半作为训练样本,另外一半作为测试样本。图1为多核极限学习机的一次试验结果。

可以看出,多核极限学习机能够较好地对函数不同细节进行逼近。表1为多核极限学习机高斯极限学习机多项式极限学习机的10次平均比较结果。从表1中可以看出,多核极限学习机算法要优于单核极限学习机算法,主要是由于单核极限学习机不能对函数变化快慢程度不一样的部分进行充分学习。多核算法的回归准确率要高于单核极限学习机算法,且具有更好的泛化能力。

4 结语。

本文根据现有的单核极限学习机算法的不足,提出了多个核函数加权组合极限学习机算法,将高斯核与多项式核进行加权组合,并应用于仿真实例,试验结果表明,本文提出的多核极限学习机算法要比单核极限学习机的回归精度要高,充分利用不同核函数的不同优势,改善单核极限学习机学习能力的不足,所以多核加权函数大大提升了极限学习机的鲁棒性能,具有一定的参考使用价值。

参考文献1 Huang G. B., Zhu Q. Y., Siew C. K., Extreme learning machine: Theory and applications[J]. Neurocomputing,2006(1)。

2 Huang G. B., Zhou H., Ding X., Zhang R., Extreme learning machine for regression and multiclass classi?cation[J]. IEEE Transactions on Systems, Man and Cybernetics part B, Cybernetics,2012(2)。

3 刘卫华.多核的鲁棒LS-SVM在图像边缘检测中的应用研究[J].微电子学与计算机 提供论文代写和代写论文服务]。

3 次访问