[0016] 以下结合附图对本发明作进一步说明。
[0017] 由图1所示,本发明具体实施步骤如下:
[0018] 步骤(1).结合空域信息提取高光谱图像的空-谱联合特征。具体如下:
[0019] 大量实验结果表明,采用空-谱特征能够极大地提高目标的识别准确率。Zhou yicong等人的研究表明,当采用5%的样本作为训练样本数时,采用支持向量机、超限学习机和基于核映射的超限学习机作为分类器,与仅采用谱特征相比,基于空-谱特征的总体分类精度分别由75.5%,67.6%,76.2%提升至92.4%,95.2%,95.%9。因此结合高光谱成像特点,采用有效的空-谱特征能极大地提高分类精度。利用空间目标邻域的光谱特性具有一定相似性,或属于同一类物质的假设,选择空间领域内一定区域(例如7×7的邻域)的样本均值作为特征向量f。
[0020] 步骤(2).融合特征随机抽样、超限学习机与集成学习思想进行分类器训练。具体如下:
[0021] 2.1采用随机抽样方法对空-谱特征进行降维处理。
[0022] 为从高光谱图像中选择有效的光谱特征进行目标分类,一方面可采用波段相关系数、波段一次差异和二次差异系数、互信息等作为准则,通过前向搜索和后向搜索算法等选择合适的光谱特征或其组合,另一方面可通过数学变换的手段对光谱维数进行降维。
[0023] 为降低算法设计的复杂度,考虑到空-谱特征相邻波段间具有一定的相关性,为保留原始特征光谱维度所包含的有效信息,拟首先对原始空-谱特征向量进行平均分组,如将原始特征向量等间距分成10个子波段,然后从每个区间随机选择若干个波段进行组合,以达到特征降维的目的。将随机获得的特征向量在原特征中的索引记做indexk,k=1…C为抽样次数,C为采用的弱分类器数目。
[0024] 2.2采用具有快速学习能力的超限学习机训练弱分类器。具体如下:
[0025] 超限学习机(ELM)是单隐层前馈神经网络,通过对输入层与隐层间的权重进行随机化处理,使得该算法在目标分类、特征学习等方面具有良好的泛化能力。因不需要在线更新权重,故训练速度非常快。ELM算法具有泛化能力好,可调参数少和计算速度快等优点,其分类模型为
[0026]
[0027] 其中,hi(x)=G(ai,bi,x)为第i个隐层节点输出响应值,G为隐层节点采用的激活函数,x∈Rd,为d维实数域输入特征向量,ai∈Rd,为输入层与第i个隐层节点的随机连接权重,bi∈R,为第i个隐层节点的偏移值。L为隐层节点个数,β为输出权重向量。设训练样本数目为N,目标类别数目为B,ELM优化的目标函数为
[0028]
[0029] 其中,δ1>0,δ2>0,p,q=0,1,2…,+∞,λ为正则化参数,H为所有训练样本经过L个隐层节点输出的变换矩阵,其维数为N×L。T为目标类别矩阵,如式(3)所示,每一行中,目标真实类别位置为1,其余位置为-1。
[0030]
[0031] 当δ1=2,δ2=2,p=2,q=2时,式(2)具有闭环解,具体如式(4)和式(5)所示。
[0032] 当N≤L时,
[0033]
[0034] 当N>L时,
[0035]
[0036] 其中,I为单位矩阵。
[0037] 对所有的训练样本,按照步骤(1)进行特征提取,得到每个样本对应的特征向量,记做fi,i为样本的标号。然后将所有样本的特征向量按列进行排列,构成特征矩阵F,F=[f1,……,fN],N为样本个数。设总计需要训练得到C个弱分类器,对于第k个分类器而言,经过随机抽样后的特征矩阵为F(indexk,:)。
[0038] 采用超限学习机进行训练时,按照式(6)生成输入层与隐层间的连接矩阵,按照式(7)生成偏置向量。
[0039] Wk=2×rand(L,size(indexk,1))-1 式(6)
[0040] Biask=rand(L,1) 式(7)
[0041] 其中,rand()函数产生均匀分布且位于区间[0 1]的随机数,size(v,1)函数用于获取矩阵或向量的行数。第k个分类器对应的变换矩阵为
[0042] Hk=(G(Wk·F(indexk,:)+Biask))T 式(8)
[0043] 根据式(8),利用式(4)或式(5)求得输出权重向量βk。经过超限学习机得到的弱分类器classifierk包含{Wk,Biask,indexk,βk,G}等参数。
[0044] 2.3使用集成学习思想,通过投票表决法将弱分类器组合成强分类器。
[0045] 弱分类器是指分类性能仅好于随机猜测的一类分类器,而强分类器的分类结果在最大程度上符合实际情况。集成学习算法通过合并一组弱分类器来提高分类器的性能,训练得到的强分类器性能优于任何一个弱分类器。Bagging算法通过对样本进行重采样训练得到弱分类器集合,这些弱分类器通过投票表决的方式确定分类标签。通过集成学习算法,能够降低分类算法的误差,提高算法的泛化能力。本发明通过对提取的特征进行平均分组和随机抽样实现特征降维,然后用超限学习机训练弱分类器。得到弱分类器后,采用投票表决法得到强分类器。
[0046] 对于一个测试样本,设经过步骤(1)提取的特征向量为ft,根据式(8)进行特征降维与映射,利用式(1)求解得到一个1×B的向量vk,向量中的每个值代表属于某一类别的概率,通过式(9)求得最大位置处的索引即为目标的类别Labelk。
[0047] [~,Labelk]=max(classifierk(ft(indexk,:))) 式(9)[0048] 根据Bagging算法思想,对所有C个分类器的结果进行投票表决,从而确定目标的最终估计类别,如式(10)所示。
[0049] Label=MajorityVote(Labelk)k=1…C 式(10)
[0050] 为验证本发明的有效性,将该方法(EELM)应用于Indian Pines、PaviaUniversity、Salinas三个典型的高光谱数据库,采用的训练样本数分别设定为10,
20,30,40,50,由于训练样本和测试样本是随机划分,故做了5次蒙特卡洛测试,评价准则选用平均分类精度、总体分类精度和Kappa系数。用于特征提取的邻域范围设定为9×9,将高光谱所有谱段平均分为10组,从每个子波段选择的波段数目设定为5。弱分类器个数设定为C=10,超限学习机隐层节点个数L=500,激活函数G()为sin()函数,正则项系数λ=1e5。
采用步骤(1)提出的空-谱联合特征,分别用支持向量机(SVM)、超限学习机(ELM)、稀疏表示(SR)作为分类器进行分类实验,同时与基于协同表示和支持向量机决策级融合(JCRSVM)的分类结果进行比较,实验结果如图2~4所示。从图2~4中可以分析得出,在使用较少的训练样本情况下,提出的基于特征随机抽样和集成超限学习机的高光谱图像快速分类方法在总体分类精度上取得了最优的分类结果。对于Indian Pines数据,设计的方法性能与JCRSVM性能相当,当训练样本数为50时,本发明设计的方法三个指标性能最优。对于Pavia University数据,当样本数大于10后,本发明设计的方法性能最优。对于Salinas数据,设计的方法与不进行特征随机抽样的超限学习机算法(ELM)性能相当,优于JCRSVM算法。因此,从总体性能上看,本发明设计的方法,通过采用集成学习算法思想,对得到的空-谱特征进行平均分组与随机抽样,提高了分类器的泛化能力,总体性能最优。由于采用了超限学习机作为分类器进行训练与测试,故算法实时性优于没有采用超限学习机的算法的实时性。
[0051] 本发明在将超限学习机算法用于高光谱图像分类时,综合利用了目标空-谱特征、波段分组与随机选择和集成学习三种手段,解决了传统高光谱图像分类方法过程复杂、难以实时化等问题,提高了分类速度和精度,具有一定的实际应用意义。本发明实现了一种基于特征随机抽样和集成超限学习机的高光谱图像快速分类方法,分类结果较为理想。