首页 > 专利 > 杭州电子科技大学 > 基于最大相关熵深度神经网络单分类器异常检测方法专利详情

基于最大相关熵深度神经网络单分类器异常检测方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-05-10
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2019-10-29
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2021-07-09
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-05-10
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201910389207.5 申请日 2019-05-10
公开/公告号 CN110287983B 公开/公告日 2021-07-09
授权日 2021-07-09 预估到期日 2039-05-10
申请年 2019年 公开/公告年 2021年
缴费截止日
分类号 G06K9/62G06N3/04G06N3/08 主分类号 G06K9/62
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 3
权利要求数量 4 非专利引证数量 1
引用专利数量 1 被引证专利数量 0
非专利引证 1、2002.10.17Vijay Manikandan Janakiraman etal.Anomaly Detection in Aviation Datausing Extreme Learning Machines《.2016International Joint Conference on NeuralNetworks (IJCNN)》.2016,第1993-2000页. Liyanaarachchi Lekamalage ChamaraKasun et al.Representational Learningwith Extreme Learning Machine for BigData《.IEEE Intelligent Systems》.2013,第1-4页.;
引用专利 US2002150285A 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 曹九稳、戴浩桢 第一发明人 曹九稳
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 2
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
朱月芬
摘要
本发明公开了一种基于最大相关熵深度神经网络单分类器异常检测方法。本发明实现如下:输入只包含正常类的训练数据集;输入样本数据经过多层ELM‑AE自编码器编码和解码处理,得到重构的特征值;将重构的特征值输入最后一层ELM,基于最大相关熵准则的目标函数求得输出权值,结合定点迭代更新的梯度推导被用于输出权重的优化,并得到实际输出;然后,得到实际输出与输出标签的距离误差向量,并从大到小排列,根据设置的阈值参数,确定分隔正常类和异常类的阈值;最后,将测试数据输入到该基于最大相关熵的深层神经网络单分类器模型中,测试该模型的识别效果。本发明有较强鲁棒性。结合超限学习机保留其快速的学习性能和良好的泛化性能。
  • 摘要附图
    基于最大相关熵深度神经网络单分类器异常检测方法
  • 说明书附图:图1
    基于最大相关熵深度神经网络单分类器异常检测方法
  • 说明书附图:图2
    基于最大相关熵深度神经网络单分类器异常检测方法
  • 说明书附图:图3
    基于最大相关熵深度神经网络单分类器异常检测方法
  • 说明书附图:图4
    基于最大相关熵深度神经网络单分类器异常检测方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-07-09 授权
2 2019-10-29 实质审查的生效 IPC(主分类): G06K 9/62 专利申请号: 201910389207.5 申请日: 2019.05.10
3 2019-09-27 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.基于最大相关熵深度神经网络单分类器异常检测方法,其特征在于包括如下步骤:
步骤1、输入只包含正常类的训练样本集,进行特征归一化;
步骤2、提取归一化后的训练样本的特征,即将训练样本经过多层ELM‑AE自编码器编码和解码处理,得到重构的特征值;
步骤3、计算分类学习的输出权重β,将重构的特征值输入最后一层ELM,基于最大相关熵准则的目标函数求得输出权值β,结合定点迭代更新的梯度推导优化网络输出权重,并得到实际输出;
步骤4、计算单分类器阈值θ,计算实际输出与样本标签的误差距离,并将得到的误差距离进行从大到小排序,根据设置的阈值参数,确定分隔正常类和异常类的阈值;
步骤5、输入测试数据进行测试,将测试数据输入到基于最大相关熵的深层神经网络单分类器模型中,测试该模型的识别效果;
其中,测试数据包含正常类和异常类;
步骤1具体实现如下:
1‑1、给训练样本 进行特征归一化,归一化后的训练样
本 其中 表示第i个样本, 表示其为目标样本,训练集只包含目标
样本,N为训练样本数量;
步骤2具体实现如下:
2‑1、归一化后的训练样本 即ELM‑AE的输入和输出矩阵,其中:由于
ELM‑AE自编码器能够通过简单地习将输入复制到输出,所以输入和输出均为XA;
2‑2、随机生成隐层输入权值矩阵 和正交化偏置向量矩阵
将输入的训练样本XA映射到相同或者不同的数据维度空间:
T T
hk=g(wkxα+bk),(wk) wk=I,(bk) bk=I,
其中:g()表示激活函数,k=1,2,...,K,为ELM‑AE个数;I是单位向量;
2‑3、求解ELM‑AE的输出权值矩阵
设ELM‑AE个数为K,输入输出层神经元数量为d,隐含层神经元数量为 以及每个隐含层的 正则化参数 若 或 即对于稀疏 及压缩的特征 表达,
若 即对于等维度的特征映射,
其中: 表示ELM‑AE的第k个隐含层输出矩阵。

2.根据权利要求1所述的基于最大相关熵深度神经网络单分类器异常检测方法,其特征在于步骤3具体实现如下:
3‑1、得到初始化输出权重
经过K‑1层ELM‑AE得到输出矩阵Ⅰ,表示为X′=[x′1,x′2,...,x′N],采用最大相关熵准则取代均方误差来优化目标函数;给定高斯核宽度σ,最大容忍误差ε和最大迭代次数J,并
0
初始化输出权重β=0,初始误差 并将初始误差转化为对角矩阵
3‑2、优化输出权重
结合定点迭代更新的梯度推导优化网络输出权重 ;计算输出权重为
其中C是常数,计算误差为
转化为对角矩阵为
3‑3、计算成本函数
j j‑1 j j‑1
计算成本函数J(β)和J(β ),j=1,...,J,当|J(β)‑J(β )|≥ε或者j<J时,则重复步骤3‑2进行迭代更新,直到满足条件得到最终的输出权值β;
所述的成本函数为:
隐藏层输出节点矩阵为 且
3‑4、得到实际输出

3.根据权利要求2所述的基于最大相关熵深度神经网络单分类器异常检测方法,其特征在于步骤4具体实现如下:
4‑1、计算实际输出Yα与样本标签T的误差距离:
K K
其中,h(x′i)为H第i个样本即第i列数据;
4‑2、将得到的误差距离进行从大到小排序, 得到 其中
和 分别表示最大和最小的误差距离;
4‑3、设置阈值参数μ,得到阈值为θ=εα[floor(μ·N)];
其中:floor为取不大于μ·N的整数。

4.根据权利要求3所述的基于最大相关熵深度神经网络单分类器异常检测方法,其特征在于步骤5具体实现如下:
5‑1、给定测试样本 其中 表示第i个样本, 表示
其为目标样本, 表示其为非目标样本,P为总共的测试样本数量;
5‑2、输入到多层ELM‑AE得到每层输出 令最后一层ELM‑AE输出为Y′=[y′1,y′2,...,y′N];
5‑3、输入到ELM分类层得到Yβ=β·Y′,计算实际输出与样本标签T的误差距离
5‑4、将得到的误差距离 与单分类器阈值θ比较
说明书

技术领域

[0001] 本发明属于机器学习和数据挖掘领域,涉及一种基于最大相关熵深度神经网络单分类器异常检测方法。

背景技术

[0002] 异常检测是数据挖掘中的重要组成部分,异常数据是指在数据集中偏离大部分数据或者与数据集中其他大部分数据不服从相同统计模型的小部分数据。而异常检测的目的是识别检测出异常数据。异常检测在信用卡欺诈、网络入侵、医疗数据智能监控、故障诊断、场景识别等众多领域中均有重要应用。
[0003] 单分类器是异常检测算法中最具有代表性的方法之一,其特点是只专注于目标样本建模;相比于传统多分类算法要求有足够丰富的多类样本数据,单分类器更加实用且更具有可行性。。当前流行且具有代表性的单分类器有单分类支持向量机(OC‑SVM),朴素帕森密度估计(NaiveParzendensityestimation),自动编码器(Auto‑Encoder),单分类超限学习机(OC‑ELM)以及多层单分类超限学习机(ML‑OCELM)。
[0004] 然而,现有的单分类算法的优化通常建立在最小化均方误差(MSE)目标损失函数的基础上,其已被证明无法有效处理数据中存在非高斯噪声和异常值的优化问题。因此,如何找到一种鲁棒性能更好的算法,使它能更好的处理一般数据集中非高斯噪声的影响成为了一个核心问题。
[0005] 为解决这个问题,本发明提出了一种基于最大相关熵准则的深度神经网络超限学习机单分类器实现异常检测。
[0006] 相关熵的概念最早在2006年被Santamaria等人提出,其想法最初是为解决信息论学习中不能在同一测量函数中处理随机序列时间结构及其统计分布的问题,提出的一种广义相关函数,进一步地,Liu等又将该广义相关函数推广到两个随机变量的情形,从而形成了相关熵的概念,相关熵作为一个非线性鲁棒算法,已被成功应用于信号处理和机器学习等多个领域,比如鲁棒回归分析、滤波、降维、分类和人脸识别等。近年来研究表明最大相关熵准则可以有效抑制非高斯噪声与异常值,其基本原理如下
[0007] 设两随机变量为X,Y,它们的相关熵定义为:
[0008] Vσ(X,Y)=E[kσ(X‑Y)]=∫K(x,y)dFXY(x,y)
[0009] 其中E表示期望算子,kσ(·)表示满足Mercer条件的正定核函数,FXY(x,y)表示两个随机变量的联合分布函数。实际问题中该联合概率密度函数往往是未知的,此时可以利用有限样本数据对 来获得相关熵的一个估计式:
[0010]
[0011] 一般情况下上式中的核函数采用高斯核,则上式可写成:
[0012]
[0013] 其中σ>0为核宽。当X,Y间的相似度越高时,上式的值就越大,最大化上式即为最大相关熵准则(Maximum Correntropy Criterion,MCC)。
[0014] 相比于其他相似性度量准则,比如最小均方准则,相关熵准则有如下优点:
[0015] (1)该准则包含所有偶数阶矩并可用于非线性和非高斯信号处理;
[0016] (2)核函数能够有效控制高阶矩加权;
[0017] (3)该准则实际是一个局部相似性度量准则,因此该准则对离群点具有较好的鲁棒性。

发明内容

[0018] 本发明是针对现有异常检测单分类算法中存在的问题,提供一种基于最大相关熵的深度神经网络单分类检测算法,具有更好的鲁棒性。
[0019] 本发明主要包括如下步骤:
[0020] 步骤1、输入只包含正常类的训练样本集,进行特征归一化;
[0021] 步骤2、提取归一化后的训练样本的特征,即将训练样本经过多层ELM‑AE自编码器编码和解码处理,得到重构的特征值;
[0022] 步骤3、计算分类学习的输出权重β,将重构的特征值输入最后一层ELM,基于最大相关熵准则的目标函数求得输出权值β,结合定点迭代更新的梯度推导优化网络输出权重,并得到实际输出;
[0023] 步骤4、计算单分类器阈值θ,计算实际输出与样本标签的误差距离,并将得到的误差距离进行从大到小排序,根据设置的阈值参数,确定分隔正常类和异常类的阈值;
[0024] 步骤5、输入测试数据进行测试,将测试数据输入到基于最大相关熵的深层神经网络单分类器模型中,测试该模型的识别效果;
[0025] 其中,测试数据包含正常类和异常类。
[0026] 步骤1具体实现如下:
[0027] 1‑1、给训练样本 进行特征归一化,归一化后的训练样本 其中 表示第i个样本, 表示其为目标样本,训练集只包
含目标样本,N为训练样本数量。
[0028] 步骤2具体实现如下:
[0029] 2‑1、归一化后的训练样本 即ELM‑AE的输入和输出矩阵,其中:由于ELM‑AE自编码器能够通过简单地习将输入复制到输出,所以输入和输出均为XA;
[0030] 2‑2、随机生成隐层输入权值矩阵 和正交化偏置向量矩阵将输入的训练样本XA映射到相同或者不同的数据维度空间:
[0031] hk=g(wkxα+bk),(wk)Twk=I,(bk)Tbk=1,
[0032] 其中:g()表示激活函数,k=1,2,...,K,为ELM‑AE个数;I是单位向量;
[0033] 2‑3、求解ELM‑AE的输出权值矩阵
[0034] 设ELM‑AE个数为K,输入输出层神经元数量为d,隐含层神经元数量为 以及每个隐含层的正则化参数 若 或 即对于稀疏及压缩的特征表达,若 即对于等维度的特征映射,
[0035] 其中: 表示ELM‑AE的第k个隐含层输出矩阵。
[0036] 步骤3具体实现如下:
[0037] 3‑1、得到初始化输出权重
[0038] 经过K‑1层ELM‑AE得到输出矩阵Ⅰ,表示为X'=[x1',x'2,...,x'N],采用最大相关熵准则取代均方误差来优化目标函数;给定高斯核宽度σ,最大容忍误差ε和最大迭代次数0
J,并初始化输出权重β=0,初始误差 并将初始误差转化为对角
矩阵
[0039] 3‑2、优化输出权重
[0040] 结合定点迭代更新的梯度推导优化网络输出权重;计算输出权重为其中C是常数,计算误差为
转化为对角矩阵为
[0041] 3‑3、计算成本函数
[0042] 计算成本函数J(βj)和J(βj‑1),j=1,...,J,当|J(βj)‑J(βj‑1)|≥ε或者j<J时,则重复步骤3‑2进行迭代更新,直到满足条件得到最终的输出权值β;
[0043] 所述的成本函数为:
[0044] 隐藏层输出节点矩阵为 且
[0045]
[0046] 3‑4、得到实际输出
[0047] 步骤4具体实现如下:
[0048] 4‑1、计算实际输出Yα与样本标签T的误差距离:
[0049]
[0050] 其中,hK(x'i)为HK第i个样本即第i列数据;
[0051] 4‑2、将得到的误差距离进行从大到小排序, 得到其中 和 分别表示最大和最小的误差距离;
[0052] 4‑3、设置阈值参数μ,得到阈值为θ=εα[floor(μ·N)];
[0053] 其中:floor为取不大于μ·N的整数。
[0054] 步骤5具体实现如下:
[0055] 5‑1、给定测试样本 其中 表示第i个样本,表示其为目标样本, 表示其为非目标样本,P为总共的测试样本数量;
[0056] 5‑2、输入到多层ELM‑AE得到每层输出 令最后一层ELM‑AE输出为Y'=[y'i,y'2,...,y'N];
[0057] 5‑3、输入到ELM分类层得到Yβ=β·Y',计算实际输出与样本标签T的误差距离[0058] 5‑4 、将得到的误差距离 与单 分类器阈值θ比 较
[0059] 本发明有益效果如下:
[0060] 本发明采用的是超限学习机自编码器(ELM‑AE)算法进行异常检测数据的特征提取,该算法比普通自编码(AE)算法更为高效,它将原始自编码器进行特征提取优化的BP梯度下降法更换为ELM,可以快速处理较高维度的输入数据,提取其主干部分信息,并且可以实现原始数据高维度、等维度、低维度的特征表达。通过多个ELM‑AE神经网络叠加增强了特征提取能力,特别是针对异常检测中的高维不均衡大数据集。
[0061] 本发明将提取得到的特征输入到基于最大相关熵的ELM单分类器进行检测识别,极大增强了单分类器处理非高斯噪声和噪点的能力,具有较强的鲁棒性。而且结合超限学习机保留了其快速的学习性能和良好的泛化性能,满足处理更一般性数据的要求。
[0062] 本发明相对于基于传统神经网络、支持向量机和最近邻的异常检测算法,除了可以更为快速高效地特征提取并降维,在ELM识别分类中结合最大相关熵,大大增加了算法应对非高斯噪声的能力,鲁棒性更好。不仅适用于小数据集也同样适用于高维大数据集,具有普适性。对于今后的实际应用具有重要的意义。
[0063] 本发明同样测试了现场实测信号的异常检测效果,具有复杂情况下较强的抗干扰能力和实时性,那么针对理想状态下的异常数据集处理将具有更好的适应性和准确率,基于最大相关熵的深层神经网络单分类算法将对今后各个领域的异常数据处理提供有效的帮助和启发。

实施方案

[0068] 下面结合附图和实例对本发明作进一步说明。
[0069] 如图1所示,首先取训练数据(仅正常数据集)输入到多层ELM‑AE进行特征提取,再通过基于最大相关熵准则的ELM分类层(无隐含层)进行分类输出实际结果,根据得到的实际输出与样本标签的误差从大到小排序,根据设置的阈值参数得到阈值。之后将待测试的样本喂入训练好的异常检测模型,得到测试数据实际输出和样本标签的误差,大于阈值的归为异常类,小于等于阈值的为正常类,并计算准确率。图2显示了单隐层前馈神经网络的基本结构,也就是ELM算法的框架。图3显示了单个ELM‑AE的网络结构,也就是自编码器采用了ELM算法作为优化算法,加快了自编码器的训练速度,增强了泛化能力。图4即为本发明采用方法的网络结构,三层ELM‑AE堆叠后再通过一个无隐含层的基于最大相关熵的ELM分类层。
[0070] 本发明主要实现流程如下:首先,输入只包含正常类的训练数据集;输入样本数据经过多层ELM‑AE自编码器编码和解码处理,得到重构的特征值;将重构的特征值输入最后一层ELM(不包含隐藏层),基于最大相关熵准则的目标函数求得输出权值β,结合定点迭代更新的梯度推导被用于输出权重β的优化,并得到实际输出;然后,得到实际输出与输出标签的距离误差向量,并从大到小排列,根据设置的阈值参数,确定分隔正常类和异常类的阈值;最后,将测试数据(包含正常类和异常类)输入到该基于最大相关熵的深层神经网络单分类器模型中,测试该模型的识别效果。
[0071] 本发明的目的是针对现有的异常检测单分类算法中存在的问题,提供一种基于最大相关熵的深层神经网络单分类检测算法,是一种鲁棒性能更好的异常检测方法。
[0072] 本发明主要包括如下步骤:
[0073] 步骤1、输入训练样本进行特征归一化
[0074] 1‑2、给定一系列训练样本 进行特征归一化,归一化后的训练样本 其中 表示第i个样本, 表示其为目标样本(正常
数据),训练集只包含目标样本,N为训练样本数量。
[0075] 步骤2、样本数据特征提取
[0076] 2‑1、归一化后的训练样本 即ELM‑AE的输入和输出矩阵。
[0077] 其中:由于ELM‑AE自编码器通过简单地学习将输入复制到输出,所以输入和输出均为XA。
[0078] 2‑2、随机生成隐层输入权值矩阵 和正交化偏置向量矩阵将输入对训练样本XA映射到相同或者不同的数据维度空间:hk=g(wkxα+bk),T T
(wk) wk=I,(bk) bk=1,其中:g()表示激活函数,k=1,2,...,K,k为ELM‑AE个数。I是单位向量。
[0079] 2‑3、求解ELM‑AE的输出权值矩阵
[0080] 假设ELM‑AE个数为K,输入输出层神经元数量为d,隐含层神经元数量为 以及每个隐含层的正则化参数 若 或 即对于稀疏及压缩的特征表达,若 即对于等维度的特征映射,
[0081] 其中: 表示ELM‑AE的第k个隐含层输出矩阵。
[0082] 步骤3、计算分类学习的输出权重β
[0083] 3‑1、得到初始化输出权重
[0084] 经过K‑1层ELM‑AE得到输出矩阵Ⅰ:X'=[x'1,x'2,...,x'N],采用最大相关熵准则取代均方误差来优化目标函数。给定高斯核宽度σ,最大容忍误差ε和最大迭代次数J,并初0
始化输出权重β=0,初始误差 并将初始误差转化为对角矩阵
[0085] 3‑2、优化输出权重
[0086] 结合定点迭代更新的梯度推导优化网络输出权重。计算输出权重为其中C是常数,计算误差为
转化为对角矩阵为
[0087] 3‑3、计算成本函数
[0088] 计算成本函数J(βj)和J(βj‑1),j=1,...,J,当|J(βj)‑J(βj‑1)|≥ε或者j<J时,则重复步骤3‑2进行迭代更新,直到满足条件得到最终的输出权值β。
[0089] 所述的成本函数为:
[0090] 隐藏层输出节点矩阵为 且
[0091]
[0092] 3‑4、得到实际输出
[0093] 步骤4、计算单分类器阈值θ
[0094] 4‑1、计算实际输出Yα与样本标签T的误差距离,
[0095]
[0096] 其中,hK(x'i)为HK第i个样本即第i列数据。
[0097] 4‑2、将得到的误差距离进行从大到小排序, 得到其中 和 分别表示最大和最小的误差距离。
[0098] 4‑3、设置阈值参数μ,得到阈值为θ=εα[floor(μ·N)]。
[0099] 其中:floor为取不大于μ·N的整数,那么θ取εα中第该整数个误差作为阈值,比如这个整数是10,那么就是第10个误差作为阈值。
[0100] 步骤5、输入测试数据进行测试
[0101] 5‑1、给定一系列测试样本 其中 表示第i个样本, 表示其为目标样本(正常数据), 表示其为非目标样本(异常样本),P为总共的测试样本数量。
[0102] 5‑2、输入到多层ELM‑AE得到每层输出 令最后一层ELM‑AE输出为Y'=[y'1,y'2,...,y'N]。
[0103] 5‑3、输入到ELM分类层得到Yβ=β·Y',计算实际输出与样本标签T的误差距离[0104] 5‑4 、将得到的 误差距离 与单分类器 阈值θ比 较

附图说明

[0064] 图1为本发明流程示意图;
[0065] 图2为单隐层前馈神经网络示意图;
[0066] 图3为ELM‑AE网络结构图;
[0067] 图4为MC‑MOCELM网络结构图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号