萤火虫算法优化的高光谱遥感影像极限学习机分类方法

  • 蔡悦 ,
  • 苏红军 , * ,
  • 李茜楠
展开
  • 河海大学地球科学与工程学院,南京 210098
*通讯作者:苏红军(1985-),男,博士,副教授,主要从事高光谱遥感、遥感信息智能处理、资源环境遥感等方面的研究。E-mail:

作者简介:蔡 悦(1991-),男,硕士生,研究方向为高光谱遥感分类。E-mail:

收稿日期: 2014-10-13

  要求修回日期: 2015-02-25

  网络出版日期: 2015-08-05

基金资助

国家自然科学基金项目(41201341)

中国科学院数字地球重点实验室开放基金项目(2014LDE003)

河海大学中央高校基本科研业务费项目(2014B08514)

An Extreme Learning Machine Optimized by Firefly Algorithm for Hyperspectral Image Classification

  • CAI Yue ,
  • SU Hongjun , * ,
  • LI Qiannan
Expand
  • School of Earth Sciences and Engineering, Hohai University, Nanjing 210098, China
*Corresponding author: SU Hongjun, E-mail:

Received date: 2014-10-13

  Request revised date: 2015-02-25

  Online published: 2015-08-05

Copyright

《地球信息科学学报》编辑部 所有

摘要

机器学习方法在高光谱遥感影像分类中广泛应用,本文使用新型的极限学习机(Extreme Learning Machine,ELM)进行高光谱遥感影像分类,针对ELM中正则化参数C和核参数σ,提出以萤火虫算法(Firefly Algorithm,FA)进行优化。首先,采用萤火虫算法进行高光谱遥感影像的波段选择,以便降低维数;然后,利用萤火虫算法以分类精度最大化为准则对ELM的参数组合(C,σ)进行寻优;最后,利用参数优化后的ELM分类器,对3个不同传感器的高光谱遥感影像进行分类。实验中将新型的萤火虫算法与遗传算法(Genetic Algorithm,GA)和粒子群算法(Particle Swarm Optimization,PSO)进行了对比,并将ELM的性能与支持向量机(Support Vector Machine,SVM)方法作对比。结果表明,FA优化方法优于传统的GA和PSO优化方法,ELM方法的效果在训练时间和分类准确率2个方面都优于SVM方法。实验说明,本文提出的方法具有较好的适用性和较优的分类效果。

本文引用格式

蔡悦 , 苏红军 , 李茜楠 . 萤火虫算法优化的高光谱遥感影像极限学习机分类方法[J]. 地球信息科学学报, 2015 , 17(8) : 986 -994 . DOI: 10.3724/SP.J.1047.2015.00986

Abstract

Machine learning technology has been widely used in remote sensing image classification. Extreme learning machine (ELM) is proposed recently for image classification, but the regularization and kernel parameters (C, σ) of ELM have significant influence on classification performance. In this paper, an ELM classifier with firefly algorithm (FA)-based parameter optimization is proposed for hyperspectral image classification. Firstly, FA algorithm is used for band selection in order to reduce the computational load of hyperspectral image classification. Then, the parameters (C, σ) of ELM are optimized by FA with respect to the classification accuracy. In our experiments, the firefly algorithm is also compared with other parameter optimization algorithms such as genetic algorithm (GA) and particle swarm optimization (PSO). In addition, the support vector machine (SVM)-based classification algorithm is also implemented for comparison purpose. The experiments are conducted on three classical hyperspectral remote sensing data. Results indicate that the performance of ELM method is better than SVM method from the aspects of classification accuracy and running time. Our experiments successfully prove that the proposed algorithm can provide a better performance for hyperspectral image classification.

1 引言

高光谱遥感在获取目标空间信息的同时,能探测到宽波遥感中不可探测的物质,为精细分类光谱特征相似的地物,提供强有力的支持[1-5]。图像分类是遥感图像处理的重要内容之一,近几十年来,许多新型方法,如人工神经网络(Artificial Neural Networks,ANNs)、支持向量机(Support Vector Machine,SVM)等,已广泛应用于遥感图像的分类中[6-8]。然而传统ANNs繁琐复杂,SVM在建模中参数寻优的过程花费时间过长,这使得人工神经网络和SVM的应用和发展受到了制约[9-12]。近年来,Huang等人提出了一种新的机器学习方法——极限学习机(Extreme Learning Machine,ELM),因其在高维数据分类中快速和良好的表现,得到广泛应用[13-14]。ELM是一种单隐层前馈神经网络,可随机地产生输入节点的权重,并根据分析获得输出的权重。与传统的神经网络不同,ELM不仅以获取最小训练误差为目标,并且期望获取最小的标准输出权重。以隐藏节点的激活函数为RBF径向基函数的形式为例,设置RBF核参数σ并对输出权重进行简单的计算分析,取代原先繁琐的迭代过程。与此同时,根据岭回归原理,在计算神经网络隐含层输出矩阵H时,加入正则项算子C,H的广义逆求解方案更加稳定;因此,相比传统的ANNs和SVM,基于RBF核的ELM拥有更快的速度和更好的泛化性能[15-17]
本文使用高斯核函数作为ELM的激活函数,其核参数σ和正则项参数C的结合,不仅会影响分类器的泛化性能,也会影响分类器的敏感性。因此,ELM分类器参数值的优化至关重要。传统的参数选择方法(如实验法)以样本进行反复的实验和分析,人工选取最佳参数,但该方法缺乏理论指导,且花费时间长。牛顿法、梯度下降算法等一些数值模拟方法,对初始值的选取较为敏感。近年来,基于仿生学的智能算法广泛用于参数优化中,如遗传算法(Genetic Algorithm,GA)、粒子群算法(Particle Swarm Optimization,PSO)等[18-19]。萤火虫算法(Firefly Algorithm,FA)是一种新型的仿生学智能算法,它源于自然界中萤火虫通过荧光进行信息交流的群体行为。目前,萤火虫算法已在组合参数的优化领域有了很好的应用,一些学者已将萤火虫算法应用在路径规划、生产调配等方面。相比其他仿生算法,该算法具有优化参数少、实现简单、并行处理能力较强、寻优速度较快和全局寻优能力等优点[20-22]
针对ELM快速分类和FA自身的特点,本文将二者相结合,使用带有正则项系数并以径向基函数为隐含节点激活函数的极限学习机(RBF-ELM)作为分类器,并利用萤火虫算法对其中的核参数σ和正则参数C进行搜索优化。对于具有大范围连续波段的高光谱影像,首先,以FA的降维算法进行波段选择;然后,用实验数据中的训练样本,以分类精度最大化,作为优化原则建立目标函数,采用FA算法在指定的范围内对参数进行优化,寻找萤火虫的最亮点即分类最优值,并将实验样本分类精度最大化的正则参数和核参数组合(C,σ)作为最终参数;最后,利用ELM机实现对高光谱影像的快速、精准分类。

2 极限学习机

2.1 ELM理论

ELM是一种单隐层前馈神经网络的新型学习算法,与传统的神经网络相比较,它的隐含层不需要调节。给定N个训练样本的训练集( x i , t i x i , t i ),其中, t i R m , i = 1,2 , , N ,ELM的结构包括一个N维输入层和一个含有L个隐层节点的输出层,则伴有激励函数 h ( x ) 的标准单隐层前馈神经网络可用式(1)表示。
i = 1 L h i ( x ) β i = t i , i = 1 , , N (1)
简化式(1)可得:
Ηβ = Τ (2)
Η = h ( x 1 ) h ( x n ) = h 1 ( x 1 ) h L ( x 1 ) h 1 ( x n ) h L ( x n ) (3)
式中, β = β 1 , β 2 , , β L T 是权重向量,它连接i个隐含节点和输出节点。 h ( x ) = h 1 ( x ) , h 2 ( x ) , , h L ( x ) , 为神经网络的隐层输出矩阵,H中的第i列表示第i个隐层节点对应于输入 x 1 , x 2 , , x N 的输出向量。 h ( x ) 实际上反映了样本从N维输入空间到L维隐含层空间的一种映射,对于二值分类的应用问题,ELM的决策函数实际可表示为式(4)。
f L ( x ) = sign ( h ( x ) β ) (4)
与传统学习算法不同,ELM不仅期望获得最小的训练误差,同时也期望具有最小范数的权值,这恰好吻合了著名的Bartlett理论,即权值越小,神经网络的泛化能力越强。ELM最小化训练误差及最小化输出权重表示为式(5)。
Minimize : Ηβ - T (5)
从式(5)可看出,最小化输出权重 β 实际上等同于ELM特征空间中2类可分离的边界距离2/ β 的最大化,因此,训练一个前置神经网络相当于求解线性方程组 Ηβ - T 的最小二乘解 β 。ELM可避免类似传统神经网络学习算法反复迭代和易于陷入局部最优的问题,快速完成学习。式(5)的解为:
β ˜ = Η + Τ (6)
式中, Η + 是矩阵H的Moore-Penrose广义逆。

2.2 带有正则项的ELM最优化约束问题

ELM可对任意连续的目标函数进行近似估计,ELM分类器的输出值 h ( x ) β 可最大程度地与分类标签值相对应。以多节点输出为例,ELM最优化约束问题可被描述为式(7)。
Minimize : L P ELM = 1 2 β 2 + C 1 2 i = 1 N ξ i 2
subject to : h ( x i ) β = t i - ξ i , i = 1 , , N (7)
如果原始类别标签是P,那么期望输出的矩阵 t i = [ 0 , , 0,1 , 0 , , 0 ] T ,只有第p个元素是1,其余的元素都是0, ξ i = ξ i , 1 , , ξ i , L T 为对应于输入样本 x i 的误差向量, α 为拉格朗日乘子,L代表拥有的隐藏节点数目。根据KKT条件,ELM的训练等价于解决最优化问题函数 L D ELM (式(8))。
L D ELM = 1 2 β 2 + C 1 2 i = 1 N ξ i 2 - i = 1 N j = 1 L α i , j ( h ( x i ) β j - t i , j + ξ i , j ) (8)
对式(8)进行优化,即求L β , ξ , α 偏导等于0,得到式(9)。 L D ELM β = 0 β = i = 1 N α i h ( x i ) T β = Η T α L D ELM ξ i = 0 α i = C ξ i , i = 1 , , N L D ELM α i = 0 h ( x i ) β - t i T + ξ i T = 0 , i = 1 , , N (9)
训练样本的个数N和隐藏节点的个数L决定了H矩阵的大小,而输出节点的个数并不影响矩阵H
将式(9)中的式一和式二代入式三,上述问题可等价于:
I C + H H T α = T (10)
式中
Τ = t 1 T t N T = t 11 t 1 L t N 1 t NL (11)
从式(9)中式一和式(10)可得:
β = H T I C + H H T - 1 T (12)
从式(9)中式三可得:
β = I C + H H T - 1 H T Τ (13)
由此可得到ELM分类器的输出函数:
f ( x ) = h ( x ) β = h ( x ) H T I C + H H T - 1 Τ (14)
f ( x ) = h ( x ) β = h ( x ) I C + H T H - 1 H T Τ (15)
如果特征映射 h ( x ) 未知,可根据Mercer´s条件,用核函数矩阵表示原来的隐藏输出矩阵 Ω ELM
Ω ELM = Η Η T : Ω EL M i , j = h ( x i ) h ( x j ) (16)
最终的输出函数表示为:
f ( x ) = h ( x ) Η T I C + Η Η T - 1 Τ = Κ ( x , x 1 ) Κ ( x , x N ) T I C + Ω ELM - 1 Τ (17)

3 萤火虫算法优化的ELM参数选择方法

3.1 萤火虫算法

核函数是影响极限学习机性能的重要因素,而高斯核函数具有较好的适应性能,因此,本文选择高斯核函数作为ELM的核函数,需优化的参数有核参数σ和正则化参数C
萤火虫算法通过模拟萤火虫发光的生物特性,以萤火虫的亮度作为位置优劣的评判标准,发光的萤火虫在其周围的区域内搜寻伙伴并向更亮即位置较优的萤火虫移动,从而实现萤火虫位置的优化。亮度和吸引度是该算法中的2个要素。萤火虫位置越优,代表它的亮度越高,也拥有更高的吸引度,使周围的萤火虫会向其移动。综上所述,萤火虫算法的原理是:萤火虫的个体相当于搜索空间中的点,萤火虫之间的吸引和移动的过程,实际就是对点的搜索和优化的过程。因此,萤火虫位置的优越程度,等同于求解问题中目标函数的大小,迭代过程中对更优位置萤火虫的搜索实现目标的优化。从数学的角度来描述萤火虫算法如下:
定义1:萤火虫的相对萤光亮度(I)如式(18)所示。
Ι = Ι 0 × e - γ r i , j 2 (18)
式中, Ι 0 为萤火虫自身的最大萤光亮度,取决于目标函数值的大小; γ 为光强吸收系数,因为荧光会随着客观条件如距离的增加和传播媒介的吸收而减弱,通常可设置为常数。 r i , j 为2只萤火虫之间的空间距离。
定义2:萤火虫的吸引度 β 如式(19)所示。
β = β 0 × e - γ r i , j 2 (19)
式中, β 0 为最大吸引度。
定义3:萤火虫i被吸引向萤火虫j移动的位置更新公式如式(20)所示。
x i = x i + β × x j - x i + α × ( rand - 1 / 2 ) (20)
式中, x i , x j 为萤火虫 i , j 所处的空间位置; α 为步长因子,是[0,1]之间的常数;rand为[0,1]上服从均匀分布的随机因子。

3.2 算法流程

(1)影像降维。利用FA波段选择方法对高光谱影像进行降维处理,选择合适的波段进行实验。
(2)设置萤火虫算法初始参数,包括萤火虫数量Maxgen,最大吸引度 β 0 ,光强吸收系数 γ ,步长因子 α ,最大迭代次数或搜索精度。
(3)利用交叉验证的思想设置高光谱影像的训练和测试样本集。
(4)对参数进行搜索和优化,根据式(18)、(19)计算萤火虫相对亮度I和吸引度 β ,根据式(20)更新萤火虫的空间位置,再经过随机扰动不断迭代获取最亮萤火虫即最优目标函数值。
(5)当满足迭代要求时,转到步骤(6),否则转回步骤(4),进行下一次搜索。
(6)输出全局最优点和最优个体值。
萤火虫算法的ELM参数优化选择的流程如图1所示。
Fig. 1 Framework indicating the optimization of ELM parameters by FA

图1 萤火虫算法优化ELM参数流程图

4 极限学习机分类方法实验分析

本文通过实验验证了萤火虫算法对ELM极限学习机参数优化的性能。在参数优化方面,利用GA和PSO的ELM参数寻优算法作为对比实验;在分类器上,将ELM与常用的SVM分类器进行对比。由于高光谱图像具有数据量大、维度高的特征,因此,在进行分类前,采用FA波段选择方法对影像进行降维处理,选择的波段数目为5-15,采用不同的优化算法对经过波段选择后的数据进行参数优化,然后使用ELM对数据进行分类,并与SVM的分类结果对比。

4.1 参数设置

在参数设置上,ELM中正则项C的取值范围设置为 10 - 5 , 10 5 ,高斯核函数相关参数 ( γ = - 1 / 2 σ 2 ) 的取值范围设置为(0,1]。SVM中的惩罚参数C的取值范围同样设置为 10 - 5 , 10 5 ,核函数的取值范围设置为 10 - 5 , 10 5 。仿生智能算法中GA、PSO和FA的种群进化代数Maxgen均设置为50,种群规模size_pop均设置为10,GA中的其他参数前期实验和专家经验的设置:交叉概率G_gap为0.9,变异概率P_mutation为0.07;PSO中的其他参数设置:惯性权重W=1,加速因子C1=1.7,C2=1.5;FA中的其他参数设置:光强吸收系数 γ 和最大吸引度 β 0 均设置为1,步长因子 α = 0.2
实验部分采用MATLAB编程实现,所用计算机参数如下:Intel i5 双核CPU,主频2.96 GHz,内存4GB,微软Windows 7 64位操作系统。
Fig. 2 Washington, DC Mall image data, training data and test data

图2 华盛顿DC区MALL遥感影像训练样本和测试样本

4.2 实验1:Washington DC Mall高光谱影像

实验数据集是由HYDICE传感器获取的华盛顿DC Mall高光谱影像。该数据集包含了从可见光到短波红外波段0.4~2.5 um光谱区间共计210个波段,移除水吸收波段后,将剩余的191个波段用于实验分析,图像的空间分辨率约为2.8 m。本实验数据共包含6类地物:道路、草地、阴影、小径、树木和屋顶,数据大小为304 × 301像元。该高光谱影像的样本数据如表1所示。实验分类结果和分类图如图3、4、5所示。
Tab. 1 Sample sizes of DC dataset

表1 DC MALL 数据样本数

类别 道路 草地 阴影 小路 树木 房屋
训练样本 55 57 50 46 49 52
测试样本 892 910 567 623 656 1123
图3-5可看出不同的智能优化算法的分类精度。从参数优化的算法来看,FA比GA和PSO性能更优。从分类器的选择来看,使用ELM方法比SVM方法能获得更高的分类精度。从FA优化的前后对比来看,相比未经优化的分类精度(93%左右),经过优化后的分类精度最高可达95.58%。综上可知,选择ELM的分类方法,并针对其中的参数使用FA进行优化,可获得更高的分类精度。
Fig. 3 Classification accuracy of DC MALL data with different algorithms

图3 DC MALL数据不同算法分类结果

Fig. 4 Classification accuracy of DC data before and after optimization using FA algorithms

图4 DC MALL数据萤火虫算法优化前后分类结果

Fig. 5 Classification map of DC data using different algorithms

图5 DC MALL数据分类覆盖图

4.3 实验2:Hymap Purdue Campus Data影像数据

实验数据集是由HYMAP传感器获取的普渡大学西拉法叶校区高光谱影像数据(图6),该数据集提供了128个可见光和短波红外波段,覆盖了从0.4~2.4 um光谱区间,其空间分辨率约为5 m,除去水汽波段,共126个波段用于实验分析。
Fig. 6 Purdue campus image, training data and test data

图6 普渡遥感影像图,训练样本和测试样本

高光谱影像的样本数据如表2所示。参数设置与实验1相同,图7-9是该数据的分类结果。
Tab. 2 Sample sizes of Purdue dataset

表2 Purdue数据样本数

类别 道路 草地 阴影 裸地 树木 房顶
训练样本 73 72 49 69 67 74
测试样本 1231 1072 215 380 1321 1244
图7-9可看出,本实验使用ELM方法,并经FA算法优化后的分类精度依然是最好的,其最高精度可达95.79%,ELM方法全面优于SVM的分类效果,使用FA算法优化也优于GA算法和PSO算法。整体的分类精度随着波段的增加稳中有升,经过FA优化后的分类精度可提升6%~7%,这是特征提取和分类优化共同的结果。整体的分类结果趋势和实验数据的结果基本相似,本实验证明FA参数寻优算法具有较好的适应性能。
Fig. 7 Classification accuracy of Purdue data with different algorithms

图7 Purdue数据不同算法分类结果

Fig. 8 Classification accuracy of Purdue data before and after optimization using FA algorithms

图8 Purdue数据萤火虫算法优化前后分类结果

Fig. 9 Classification map of Purdue data using different algorithms

图9 Purdue数据分类覆盖图

4.4 实验3:Salinas-A scene影像数据

本实验采用AVIRIS 传感器在美国堪萨斯州中部城市萨利纳斯山谷中获取的高光谱数据(图10),选取其中的一部分,实验数据大小为86 × 83像元,空间分辨率为3.7 m,数据共有224个波段,除去了水吸收波段和噪声波段,共204个波段用于实验。高光谱影像样本数据如表3所示,实验中采用5次交叉验证的方法,将20%的数据集作为训练样本,80%的数据集作为测试样本,求取平均值作为最终的分类精度。该数据的分类结果如图11-13所示。
Tab. 3 Sample sizes of Salinas-A dataset

表3 Salinas-A 数据样本数

样本类别 样本数(个)
花椰菜 391
玉米 1343
长叶莴苣-4周 616
长叶莴苣-5周 1525
长叶莴苣-6周 674
长叶莴苣-7周 799
Fig. 10 Image of Salinas-A scene and Ground-truth Map

图10 萨利纳斯山谷遥感影像图和样本

Fig. 11 Classification accuracy of Salinas-A data with different algorithms

图11 Salinas-A数据不同算法分类结果

Fig. 12 Classification accuracy of Salinas-A data before and after optimization using FA algorithms

图12 Salinas-A数据萤火虫算法优化前后分类结果

Fig. 13 Classification map of Salinas-A data using different algorithms

图13 Salinas-A数据分类覆盖图

本实验说明,虽然分类精度的差别不大,但从细节可看出,多数情况下使用ELM方法性能要比SVM好,与此同时,FA算法在AVIRIS数据上也取得了最优的结果。由图12可看出,对比FA算法优化前后的结果,也有很明显的差别,优化后的精度要比未经优化的高很多。本实验进一步验证了FA算法有着更好的学习性能和搜索能力。

4.5 算法复杂度分析

对于SVM来说,训练算法较慢可能是由于在解决对偶问题时,利用标准二次型技术导致的,主要的计算时间都消耗在拉格朗日乘子 α 的计算上。对于ELM而言, α 的计算式(10),相比SVM要简单得多。更重要的是,当样本数据规模较大,维数较高时,ELM可通过式(13)中的 Η T Η ( L × L ) 取代式(12)中的 Η Η T ( N × N ) 来求解,L代表隐藏节点的数量,这远远小于训练样本的数量 L N ,因此计算时间可大大减少。3组实验利用ELM和SVM进行分类的时间对比如表4所示。
Tab. 4 Running time of ELM and SVM (seconds)

表4 ELM与SVM运行时间对比(s)

5 15 所有波段
ELM SVM ELM SVM ELM SVM
DC 0.009 0.041 0.012 0.198 0.014 0.573
Pu 0.018 0.080 0.020 0.086 0.026 0.205
SA 0.028 0.133 0.036 0.145 0.043 0.970
表4可看出,在学习速度上,ELM比SVM有一定的优势,RBF-ELM比SVM平均快6倍。随着波段数的上升,SVM消耗时间的速率也远快于ELM。由于ELM不需调整网络的输入权值,对于大量样本数据的花费时间要小于SVM,在分类精度相当的前提下,ELM具有优势。

5 结论

本文利用带有正则项参数的极限学习机(RBF-ELM),对高光谱影像的分类进行了研究,并提出了一种利用新型智能优化算法FA,对ELM参数进行优化的方法,从而提高了高光谱影像的分类精度。一方面,ELM相比SVM和人工神经网络有着速度更快,更加简便的优点;另一方面,FA算法对ELM参数的优化相比于其他智能优化算法而言,有着更好的搜索能力和适应性,二者结合起来,对高光谱遥感影像的快速、高效分类有重要的理论和现实意义。

The authors have declared that no competing interests exist.

[1]
童庆禧,张兵,郑兰芬.高光谱遥感[M].北京:高等教育出版社,2006.

[2]
张兵,高连如.高光谱图像分类与目标探测[M].北京:科学出版社,2011.

[3]
王静,何挺,李玉环.基于高光谱遥感技术的土地质量信息挖掘研究[J].遥感学报,2005,9(4):438-445.

[4]
Vapnik V N.The Nature of Statistical Learning Theory [M], New York: Springer Verlag Press, 1995.

[5]
何挺,王静,程烨.高光谱遥感技术在土地质量监测中的应用[J].长江流域资源与环境学报,2002(11):79-83.

[6]
熊桢,郑兰芬,童庆禧.分层神经网络分类算法[J].测绘学报,2000,29(3):229-234.

[7]
Chong C C, Jia J C, Mital D P.Classification of multispectral images using BP-nerual network classifier-input codings assessment[C]. IEEE Internatinal Conference on Frontiers of Computer Technology, Los Alamitos, CA, USA, 1994,2:867-871.

[8]
Chapelle O, Vapnik V, Bousquet O, et al.Choosing multiple parameters for support vector machines[J]. Machine Learning, 2002,46(1-3):131-159.

[9]
邓乃扬,田英杰.数据挖掘中的新方法——支持向量机[M].北京:科学出版社,2004.

[10]
Melgani F, Bruzzone L.Classification of hyperspectral remote-sensing images with support vector machines[J]. IEEE Transactions on Geoscience and Remote Sensing, 2004,42(8):1178-1790.

[11]
Camps-Valls G, Gomez-Chova L, Munoz-Mari J, et al.Composite kernels for hyperspectral image classification[J]. IEEE Geoscience and Remote Sensing Letters, 2006,3(1):93-97.

[12]
黄昕,张良培,李平湘.基于多尺度特征融合和支持向量机的高分辨率遥感影像分类[J].遥感学报,2007,11(1):48-54.

[13]
Alajlan N, Melgani F, AlHichri H, et al. Differential evolution extreme learning machine for the classification of hyperspectral images[J]. IEEE Geoscience and Remote Sensing Letters, 2014,11(6):1066-1070.

[14]
Huang G B, Zhu Q Y, Siew C K.Extreme learning machine: Theory and applications[J]. Neurocomputing, 2006,70:489-501.

[15]
Huang G B, Wang D H, Lan Y.Extreme learning machines: A survey[J]. International Journal of Machine Learning and Cybernetics, 2011,2(2):107-122.

[16]
Huang G B, Ding X, Zhou H.Optimization method based extreme learning machine for classification[J]. Neurocomputing, 2010,74:155-163.

[17]
Huang G B, Zhou H M, Ding X J, et al.Extreme learning machine for regression and multiclass classification[J]. IEEE Transactions on Systems, Man and Cybernetics - Part B, 2011,42(2):513-529.

[18]
马彩虹,戴芹,刘士彬.一种融合PSO和Isodata的遥感图像分割新方法[J].武汉大学学报(信息科学版),2012,37(1):35-38.

[19]
郑肇葆,郑宏,潘励.纹理分类中遗传算法参数的选择[J].测绘学报,2000,29(1):36-39.

[20]
Bora T C, Schauenburg F, Alotto P.A multiobjective firefly approach using beta probability distribution for electromagnetic optimization problems[J]. IEEE Magnetics Society, 2013,49(5):2085-2088.

[21]
Bai X P, Sun B H.An application of firefly algorithm in beamforming optimization of linear antenna arrays[C]. Proceedings of 2012 2nd IEEE International Conference on Cloud Computing and Intelligence Systems, Hangzhou, China, 2012,2:1141-1144.

[22]
Hu Z W, Liao J X, Xu T.A firefly algorithm for distributed power optimization of macrocell base station[C]. Proceedings of 2013 5th IEEE International Conference on Broadband Network and Multimedia Technology, Guilin, China, 2013:248-252.

文章导航

/