首页 > 专利 > 杭州电子科技大学 > 基于数据挖掘的网络入侵检测方法专利详情

基于数据挖掘的网络入侵检测方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2018-12-29
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2019-06-28
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2021-03-16
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2038-12-29
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201811637319.X 申请日 2018-12-29
公开/公告号 CN109842614B 公开/公告日 2021-03-16
授权日 2021-03-16 预估到期日 2038-12-29
申请年 2018年 公开/公告年 2021年
缴费截止日
分类号 H04L29/06G06F16/2458G06K9/62 主分类号 H04L29/06
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 0
权利要求数量 1 非专利引证数量 0
引用专利数量 2 被引证专利数量 0
非专利引证
引用专利 CN107360200A、CN108023876A 被引证专利
专利权维持 4 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 王秋华、欧阳潇琴、詹佳程、吕秋云 第一发明人 王秋华
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 1 发明人数量 4
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州君度专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
朱月芬
摘要
本发明涉及基于数据挖掘的网络入侵检测方法。现有技术中存在样本权值更新缺陷所造成的分类准确率降低,冗余弱分类器造成的分类速度慢、计算开销大等问题。本发明方法在弱分类器训练阶段,采用改进权值更新方法的Adaboost算法进行弱分类器训练,根据各个样本在前t次训练中的加权平均正确率来更新样本权值,抑制了噪声样本权值的无限扩大,令所有样本的权值更新更均衡。在弱分类器组合阶段,提出一种新的弱分类器间相似度度量方式,并基于该相似度度量方式和层次聚类算法进行选择性集成,将相似度超过阈值的弱分类器归入一类,取每类中分类准确率最高的弱分类器组合成强分类器,从而剔除冗余弱分类器,提高了分类速度,减少了计算开销。
  • 摘要附图
    基于数据挖掘的网络入侵检测方法
  • 说明书附图:图1
    基于数据挖掘的网络入侵检测方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-03-16 授权
2 2019-06-28 实质审查的生效 IPC(主分类): H04L 29/06 专利申请号: 201811637319.X 申请日: 2018.12.29
3 2019-06-04 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.基于数据挖掘的网络入侵检测方法,其特征在于该方法具体步骤包括:
步骤(1)使用改进权值更新方法的Adaboost算法进行弱分类器训练:
步骤(1.1)设初始训练集为D={(x1,y1),(x2,y2),...,(xN,yN)},N为训练集中训练样本总数;初始化训练样本的权值:每一个训练样本最初的权值均为1/N,初始权值向量为{1/N,
1/N,…,1/N};
步骤(1.2)训练T个弱分类器,第t个弱分类器的训练方式如下,1≤t≤T:
步骤(1.2.1)根据训练样本权值从初始训练集D中有放回地随机抽取N个训练样本,作为第t个弱分类器ht的训练集Dt;
步骤(1.2.2)根据训练集Dt训练得到弱分类器ht;
步骤(1.2.3)计算ht的分类错误率εt和权重αt;
其中I[ht(xn)=yn],表示第t个弱分类器对第n个训练样本的预测值与实际值是否相等;若相等,则为1;若不相等,则为0;(xn,yn)表示第n个训练样本;
步骤(1.2.4)如果εt<0.5,则重新训练ht;如果εt≥0.5,进入下一步;
步骤(1.2.5)更新训练样本权值,更新方式如下:
首先,统计第n个训练样本在前t个弱分类器的组合下能够被正确分类的概率Et(n):
然后,计算第n个训练样本第t+1次的权值Wt+1(n),前t次的分类准确率越低,权值提升越大:
其中,Zt是归一化因子,
步骤(1.3)返回训练阶段得到的T个弱分类器集合H={h1,h2,…,hT};
步骤(2)定义一种新的分类器间相似度度量方式:
步骤(2.1)设 表示T个训练集中训练样本的下标矩阵,Dt
=[dt1,dt2,…,dtN]为矩阵的第t行,表示第t个弱分类器的训练样本集,dtn是第t个弱分类器抽取的第n个训练样本的下标表示,dtn∈[1,N];
步骤(2.2)定义两个弱分类器hi和hj之间训练集的相似度为Sim(i,j),表示训练集Di和Dj的交集大小占总训练样本数N的比重;
步骤(2.3)设矩阵 表示T个弱分类器对N个训练样本的分
类结果,mtn表示第t个弱分类器对第n个训练样本的分类情况, 1表示分类正确,0表示分类错误;
步骤(2.4)定义两个弱分类器hi和hj之间分类结果的相似度为Rim(i,j),即被两个弱分类器划分到相同类别的训练样本数量占总训练样本数N的比重:
步骤(2.5)定义两个弱分类器hi和hj之间的相似度为Tim(i,j)=Sim(i,j)+Rim(i,j),由此得到T个弱分类器间的相似度矩阵
步骤(3)基于步骤(2)中度量方式和层次聚类算法的选择性集成方法进行弱分类器组合,具体方式如下:
步骤(3.1)首先设置一个相似度阈值δ,若两个弱分类器hi和hj之间的相似度Tim(i,j)>δ,则可将hi和hj划分到同一个类中;
步骤(3.2)将T个弱分类器分别划分到一个类中,共得到T个初始类{C1,C2,…,CT},C1到CT分别表示第一到第T个类;
步骤(3.3)找到相似度最大的两个类Cu和Cv,若其相似度Cim(Cu,Cv)>δ,则将Cu和Cv合并为一个类,于是总的类数减少了一个;定义任意两个类Ca和Cb之间的相似度为Cim(Ca,Cb),并定义Ca中任一弱分类器与Cb中任一弱分类器的相似度的最小值为类间相似度:Cim(Ca,Cb)=min{Tim(i,j)|hi∈Ca,hj∈Cb};
步骤(3.4)依据步骤(3.3)公式重新计算旧类与合并类之间的相似度;
步骤(3.5)重复步骤(3.3)和步骤(3.4),直到任意两个类之间的相似度都小于等于δ;
步骤(3.6)最后得到K个类{C1,C2,...,CK},K<T,从每个类中选取分类准确率最高的弱分类器组合成强分类器,选择性集成后的强分类器的决策函数
说明书

技术领域

[0001] 本发明属于计算机技术领域,具体是网络安全技术领域,涉及基于数据挖掘的网络入侵检测方法。

背景技术

[0002] 作为信息安全保障体系结构的重要组成部分,入侵检测可以从网络系统中的若干关键点收集信息,并分析网络中是否存在入侵行为及迹象。入侵检测可看作是一个数据分类过程,从收集的信息中识别出正常操作和入侵行为。当前,入侵检测分类算法主要有决策树、神经网络或支持向量机等。但上述分类器均为单个分类器,其泛化能力不足,分类准确率不高,因此集成学习方法被引入。集成学习是一种通过构建多个弱分类器(即单个分类器),再将其组合成一个强分类器的学习方法。集成学习方法充分利用了单个弱分类器之间的互补性,有效提升了分类器的泛化能力。
[0003] Adaboost算法(Adaptive Boosting:自适应提升)是目前最具实用价值的集成学习算法,其本质是通过改变样本分布来实现弱分类器的训练。具体来说,它根据每次训练集之中每个样本的分类是否正确,以及上一次的总体分类的准确率,来更新每个样本的权值。将修改过权值的训练集送给下层分类器进行训练,最后将每次训练得到的分类器组合成强分类器。虽然Adaboost算法在一定程度上提高了分类器的泛化能力,其仍存在以下不足。
[0004] 首先,该算法的权值更新机制容易造成不公平的权值分配,且容易导致噪声样本权值的无限增大。不少学者针对该缺点对算法进行了改进,相关文献如下:
[0005] 1.张子祥等在《基于样本噪声检测的AdaBoost算法改进》中提出一种基于噪声检测的Adaboost改进算法,该算法根据错分样本中噪声样本与普通错分样本的差异性来确定噪声样本,并重新对其进行分类,从而提高了分类准确率。
[0006] 2.李文辉等在《一种改进的Adaboost训练算法》中通过调整加权误差分布限制目标类样本权值的扩张,并且以概率值输出代替传统的离散值输出作为强分类器的输出结果。
[0007] 3.董超等在《基于改进的Adaboost算法在网络入侵检测中的应用》中根据样本分类正确率提高其权值,同时抑制噪声样本权值的无限增大。
[0008] 其次,弱分类器的训练过程带有一定随机性,容易导致冗余弱分类器的产生,此类弱分类器不仅不能提高分类准确率,还会增加计算开销,降低分类速度。周志华等在《Ensembling Neural Networks:Many Could Be Better Than All》中提出的“Many could be better than all”理论证明使用较少的弱分类器组合而成的强分类器也可以达到相同、甚至更优的效果。基于该理论,选择性集成方法被提出,该方法是在集成学习的基础上增加了一个分类器的选择阶段。在该阶段,通过某种策略剔除那些对集成分类器的分类能力具有负面影响的弱分类器,将剩下的弱分类器组合成强分类器,从而进一步提高分类性能。
[0009] 1.谢元澄等在《删除最差基学习器来层次修剪Bagging集成》中通过删除弱分类器中性能差的分类器进行选择性集成。
[0010] 2.王忠民等在《基于差异性聚类的选择性集成人体行为识别模型》中通过计算弱分类器的双误差异性增量值,并结合近邻传播聚类算法将若干个弱分类器分成K个簇,选取每簇的中心分类器组合成强分类器。

发明内容

[0011] 本发明的目的就是针对传统Adaboost算法中样本权值更新缺陷所造成的分类准确率降低,以及冗余弱分类器造成的分类速度慢、计算开销大等问题,提供一种基于数据挖掘的网络入侵检测方法,是一种基于改进权值更新和选择性集成的自适应提升方法。
[0012] 本发明首先在弱分类器训练阶段,提出一种改进权值更新方式的Adaboost算法,算法根据各个样本在前t次训练中的平均正确率来更新样本权值,使所有样本的权值更新更均衡,在一定程度上抑制了噪声样本权值的无限扩大;其次,在弱分类器组合阶段,提出一种新的弱分类器间相似度度量方式,并基于该相似度度量方式和层次聚类算法进行选择性集成,剔除了冗余的弱分类器,提高了分类速度,减少了计算开销。
[0013] 为达到上述目的,本发明提出的技术方案包括如下步骤:
[0014] 步骤(1)使用改进权值更新方法的Adaboost算法进行弱分类器训练:
[0015] 步骤(1.1)设初始训练集为D={(x1,y1),(x2,y2),...,(xN,yN)},N为训练集中样本总数;初始化训练样本的权值:每一个训练样本最初的权值均为1/N,初始权值向量为{1/N,1/N,…,1/N};
[0016] 步骤(1.2)训练T个弱分类器,第t个弱分类器的训练方式如下,1≤t≤T:
[0017] 步骤(1.2.1)根据样本权值从初始训练集D中有放回地随机抽取N个训练样本,作为第t个弱分类器ht的训练集Dt;
[0018] 步骤(1.2.2)根据训练集Dt训练得到弱分类器ht;
[0019] 步骤(1.2.3)计算ht的分类错误率εt和权重αt;
[0020]
[0021] 其中I[ht(xn)=yn],表示第t个分类器对第n个样本的预测值与实际值是否相等;若相等,则为1;若不相等,则为0;(xn,yn)表示第n个样本;
[0022] 步骤(1.2.4)如果εt<0.5,则重新训练ht;如果εt≥0.5,进入下一步;
[0023] 步骤(1.2.5)更新样本权值,更新方式如下:
[0024] 首先,统计第n个样本在前t个弱分类器的组合下能够被正确分类的概率Et(n):
[0025]
[0026] 然后,计算第n个样本第t+1次的权值Wt+1(n),前t次的分类准确率越低,权值提升越大:
[0027]
[0028] 其中,Zt是归一化因子,
[0029] 步骤(1.3)返回训练阶段得到的T个弱分类器集合H={h1,h2,…,hT}。
[0030] 步骤(2)定义一种新的分类器间相似度度量方式:
[0031] 步骤(2.1)设 表示T个训练集中训练样本的下标矩阵,Dt=[dt1,dt2,…,dtN]为矩阵的第t行,表示第t个弱分类器的训练样本集,dtn是第t个弱分类器抽取的第n个训练样本的下标表示,dtn∈[1,N];例如,d24=5表示第2个弱分类器抽取的第4个训练样本为(x5,y5)。
[0032] 步骤(2.2)定义两个弱分类器hi和hj之间训练集的相似度为Sim(i,j),表示训练集Di和Dj的交集大小占总样本数N的比重;
[0033]
[0034] 步骤(2.3)设矩阵 表示T个弱分类器对N个样本的分类结果,mtn表示第t个弱分类器对第n个训练样本的分类情况, 1表示
分类正确,0表示分类错误;
[0035] 步骤(2.4)定义两个弱分类器hi和hj之间分类结果的相似度为Rim(i,j),即被两个弱分类器划分到相同类别的样本数量占总样本数N的比重:
[0036]
[0037] 步骤(2.5)定义两个分类器hi和hj之间的相似度为Tim(i,j)=Sim(i,j)+Rim(i,j),由此得到T个弱分类器间的相似度矩阵
[0038] 步骤(3)基于步骤(2)中度量方式和层次聚类算法的选择性集成方法进行弱分类器组合,具体方式如下:
[0039] 步骤(3.1)首先设置一个相似度阈值δ,若两个弱分类器hi和hj之间的相似度Tim[i][j]>δ,则可将hi和hj划分到同一个类中;
[0040] 步骤(3.2)将T个弱分类器分别划分到一个类中,共得到T个初始类{C1,C2,…,CT},C1到CT分别表示第一到第T个类;
[0041] 步骤(3.3)找到相似度最大的两个类Cu和Cv,若其相似度Cim(Cu,Cv)>δ,则将Cu和Cv合并为一个类,于是总的类数减少了一个;定义任意两个类Ca和Cb之间的相似度为Cim(Ca,Cb),并定义Ca中任一弱分类器与Cb中任一弱分类器的相似度的最小值为类间相似度:Cim(Ca,Cb)=min{Tim[i][j]|hi∈Ca,hj∈Cb};
[0042] 步骤(3.4)依据步骤(3.3)公式重新计算旧类与合并类之间的相似度;
[0043] 步骤(3.5)重复步骤(3.3)和步骤(3.4),直到任意两个类之间的相似度都小于等于δ;
[0044] 步骤(3.6)最后得到K个类{C1,C2,...,CK},K<T,从每个类中选取分类准确率最高的弱分类器组合成强分类器,选择性集成后的强分类器的决策函数
[0045] 本发明有益效果如下:
[0046] 本发明方法在弱分类器训练阶段,针对Adaboost算法仅依靠前一次分类情况来决定样本的权值变化太过片面,并且容易导致噪声样本权值无限扩大的缺点,提出一种改进权值更新方式的Adaboost算法。改进更新方式根据各个样本在前t次训练中的加权平均正确率来更新样本权值,所有样本都在前t次训练的基础上提升其权值,前t次的分类正确率越高,权值提升越小;最后再对提升后的权值进行归一化,这在一定程度上抑制了噪声样本权值的无限扩大,令所有样本的权值更新更均衡。在弱分类器组合阶段,针对弱分类器冗余所导致的分类速度慢、计算开销大等问题,提出一种新的弱分类器间相似度度量方式,并基于该相似度度量方式和层次聚类算法进行选择性集成,将相似度超过阈值的弱分类器归入一类,取每类中分类准确率最高的弱分类器组合成强分类器,从而剔除冗余的弱分类器,提高了分类速度,减少了计算开销。

实施方案

[0048] 下面结合附图对本发明作进一步说明。
[0049] 如图1,基于数据挖掘的网络入侵检测方法,具体步骤如下:
[0050] 步骤(1)使用改进权值更新方法的Adaboost算法进行弱分类器训练:
[0051] 步骤(1.1)设初始训练集为D={(x1,y1),(x2,y2),...,(xN,yN)},N为训练集中样本总数;初始化训练样本的权值:每一个训练样本最初的权值均为1/N,初始权值向量为{1/N,1/N,…,1/N}。
[0052] 步骤(1.2)训练T个弱分类器,第t个弱分类器的训练方式如下,1≤t≤T:
[0053] 步骤(1.2.1)根据样本权值从初始训练集D中有放回地随机抽取N个训练样本,作为第t个弱分类器ht的训练集Dt;
[0054] 步骤(1.2.2)根据训练集Dt训练得到弱分类器ht;
[0055] 步骤(1.2.3)计算ht的分类错误率εt和权重αt;
[0056]
[0057] 其中I[ht(xn)=yn],表示第t个分类器对第n个样本的预测值与实际值是否相等;若相等,则为1;若不相等,则为0;(xn,yn)表示第n个样本;
[0058] 步骤(1.2.4)如果εt<0.5,则重新训练ht;如果εt≥0.5,进入下一步;
[0059] 步骤(1.2.5)更新样本权值,更新方式如下:
[0060] 首先,统计第n个样本在前t个弱分类器的组合下能够被正确分类的概率Et(n):
[0061]
[0062] 然后,计算第n个样本第t+1次的权值Wt+1(n),前t次的分类准确率越低,权值提升越大:
[0063]
[0064] 其中,Zt是归一化因子,
[0065] 步骤(1.3)返回训练阶段得到的T个弱分类器集合H={h1,h2,…,hT}。
[0066] 步骤(2)定义一种新的分类器间相似度度量方式:
[0067] 步骤(2.1)设 表示T个训练集中训练样本的下标矩阵,Dt=[dt1,dt2,…,dtN]为矩阵的第t行,表示第t个弱分类器的训练样本集,dtn是第t个弱分类器抽取的第n个训练样本的下标表示,dtn∈[1,N];例如,d24=5表示第2个弱分类器抽取的第4个训练样本为(x5,y5)。
[0068] 步骤(2.2)定义两个弱分类器hi和hj之间训练集的相似度为Sim(i,j),表示训练集Di和Dj的交集大小占总样本数N的比重;
[0069]
[0070] 步骤(2.3)设矩阵 表示T个弱分类器对N个样本的分类结果,mtn表示第t个弱分类器对第n个训练样本的分类情况, 1表示
分类正确,0表示分类错误;
[0071] 步骤(2.4)定义两个弱分类器hi和hj之间分类结果的相似度为Rim(i,j),即被两个弱分类器划分到相同类别的样本数量占总样本数N的比重:
[0072]
[0073] 步骤(2.5)定义两个分类器hi和hj之间的相似度为Tim(i,j)=Sim(i,j)+Rim(i,j),由此得到T个弱分类器间的相似度矩阵
[0074] 步骤(3)基于步骤(2)中度量方式和层次聚类算法的选择性集成方法进行弱分类器组合,具体方式如下:
[0075] 步骤(3.1)首先设置一个相似度阈值δ,若两个弱分类器hi和hj之间的相似度Tim[i][j]>δ,则可将hi和hj划分到同一个类中;
[0076] 步骤(3.2)将T个弱分类器分别划分到一个类中,共得到T个初始类{C1,C2,…,CT},C1到CT分别表示第一到第T个类;
[0077] 步骤(3.3)找到相似度最大的两个类Cu和Cv,若其相似度Cim(Cu,Cv)>δ,则将Cu和Cv合并为一个类,于是总的类数减少了一个;定义任意两个类Ca和Cb之间的相似度为Cim(Ca,Cb),并定义Ca中任一弱分类器与Cb中任一弱分类器的相似度的最小值为类间相似度:Cim(Ca,Cb)=min{Tim[i][j]|hi∈Ca,hj∈Cb};
[0078] 步骤(3.4)依据步骤(3.3)公式重新计算旧类与合并类之间的相似度;
[0079] 步骤(3.5)重复步骤(3.3)和步骤(3.4),直到任意两个类之间的相似度都小于等于δ;
[0080] 步骤(3.6)最后得到K个类{C1,C2,...,CK},K<T,从每个类中选取分类准确率最高的弱分类器组合成强分类器,选择性集成后的强分类器的决策函数
[0081] 综上所述,为了提高Adaboost算法的分类准确率和效率,本发明方法首先提出了改进样本权值更新方式的Adaboost算法,改进的权值更新方式根据各个样本在前t次训练中的加权平均正确率来更新样本权值,所有样本都在前t次训练的基础上提升其权值,前t次的分类正确率越高,权值提升越小;最后再对提升后的权值进行归一化,这在一定程度上抑制了噪声样本权值的无限扩大,令所有样本的权值更新更均衡,在一定程度上提高了分类准确率。其次,利用基于层次聚类和相似度的选择性集成方法对弱分类器进行筛选,剔除冗余的弱分类器,最后得到一个弱分类器子集,并组合成强分类器,在一定程度上解决了弱分类器冗余所导致的分类速度慢、计算开销大等问题。与其它集成学习方法相比,本发明所提方法不仅提高了分类速度,而且保证了相同甚至更高的分类准确率。
[0082] 上述显示和描述了本发明的基本原理、实施步骤和技术特征。本行业技术人员应了解,本发明不受上述实施例的限制,本发明还会有各种变化和改进,这些变化和改进都落入本发明的保护范围内。

附图说明

[0047] 图1为本发明框架示意图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号