首页 > 专利 > 杭州电子科技大学 > 一种基于图网络池化的新闻文本分类方法专利详情

一种基于图网络池化的新闻文本分类方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2020-12-02
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2021-03-30
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-06-10
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2040-12-02
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN202011386651.0 申请日 2020-12-02
公开/公告号 CN112487187B 公开/公告日 2022-06-10
授权日 2022-06-10 预估到期日 2040-12-02
申请年 2020年 公开/公告年 2022年
缴费截止日
分类号 G06F16/35G06F40/194G06N3/04G06K9/62 主分类号 G06F16/35
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 3
权利要求数量 4 非专利引证数量 0
引用专利数量 0 被引证专利数量 0
非专利引证
引用专利 被引证专利
专利权维持 2 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 朱小草、郭春生、陈华华、应娜 第一发明人 朱小草
地址 浙江省杭州市经济技术开发区白杨街道2号大街1158号 邮编 310018
申请人数量 1 发明人数量 4
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
浙江千克知识产权代理有限公司 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
周希良
摘要
本发明公开了一种基于图网络池化的新闻文本分类方法,包括步骤:S1.在注意力机制中将结构信息与特征信息相结合,并计算图神经网络中一阶邻域内节点之间的相似性得分,得到具有相似性节点的注意力机制;S2.采用稀疏概率激活函数sparsemax算法将得到的注意力机制进行稀疏化,得到节点相对应的集群;S3.采用局部聚合卷积计算每个集群的分数,并通过得分高低来判断集群所含有的信息量;S4.采用topk选出得分最高的前个集群,并将选择出的集群进行重新连边得到最终池化后的神经网络。
  • 摘要附图
    一种基于图网络池化的新闻文本分类方法
  • 说明书附图:图1
    一种基于图网络池化的新闻文本分类方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-06-10 授权
2 2021-03-30 实质审查的生效 IPC(主分类): G06F 16/35 专利申请号: 202011386651.0 申请日: 2020.12.02
3 2021-03-12 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于图网络池化的新闻文本分类方法,其特征在于,包括步骤:
S
1.在注意力机制中将结构信息与特征信息相结合,并计算图神经网络中一阶邻域内节点之间的相似性得分,得到具有相似性节点的注意力机制;
S
2.采用稀疏概率激活函数sparsemax算法将得到的注意力机制进行稀疏化,得到节点相对应的集群;
S
3.采用局部聚合卷积计算每个集群的分数,并通过得分高低来判断集群所含有的信息量;
S
4.采用topk选出得分最高的前 个集群,并将选择出的集群进行重新连边得到最终池化后的神经网络;
步骤S2中采用稀疏概率激活函数sparsemax算法将得到的注意力机制进行稀疏化后还包括得到稀疏的概率分布,表示为:
其中,si为ei进行归一化后的向量,ei表示节点i的注意力值,ei=[ei,1,ei,2,...ei,N];
表示维度为N‑1的单纯形;
步骤S3中采用局部聚合卷积计算每个集群的分数中局部聚合卷积表示为:
其中,激活函数σ采用sigmoid;N(i)、N(j)分别表示节点i、节点j的邻域;
表示能学习参数,考虑了集群的全局和局部重要性,综合
得出每个集群的分数; 表示第i个节点的特征变换;
表示当前节点与其一阶邻域内的节点差值。

2.根据权利要求1所述的一种基于图网络池化的新闻文本分类方法,其特征在于,步骤S1中得到具有相似性节点的注意力机制,表示为:
T
ei,j=σ(we[xi||xj])+λ·ai,j
其中,σ表示激活函数; 表示权重向量; 和 分别奥斯节点i
和节点j的特征向量;||表示拼接操作; 表示当前图的邻接矩阵;ai,j表示A的第i行第j列的值。

3.根据权利要求1所述的一种基于图网络池化的新闻文本分类方法,其特征在于,所述得到稀疏的概率分布中还包括:
定义拉格朗日函数:
最优解集 满足下列KKT条件:
* *
若j∈{1,...,N},有si,j>0,则μi,j=0,有
*
令c(ei)={z∈{1,...,N}|si,z>0},有 则
稀疏的概率分布的对偶形式表示为:
si,j=sparsemax(ei,j)=[ei,j‑τ(ei)]+
其中,[x]+=max{0,x};τ(·)表示阈值函数。

4.根据权利要求1所述的一种基于图网络池化的新闻文本分类方法,其特征在于,其特征在于,步骤S4具体为:
T
将适应度向量Φ=[φ1,φ2,...,φN]与集群表示矩阵SX相乘,以使适应度函数fφ能学习:
T
其中⊙表示哈达玛积;S=[s1,s2,...,sN]鄙视集群分配矩阵;X=[x1,x2,...,xN] 表示特征矩阵;
c
函数TOPk(·)对适应度得分进行排序,并以比率k进行筛选保留,得出G中前 个所选集群的索引 表示为:
p
通过选择前 个群集来形成池化图G ,则对应的分配矩阵 和节点特
征矩阵 表示为:
p p
对集群进行了采样后,池化图G中用 和 来获得新的邻接矩阵A:
其中, I表示单位矩阵。
说明书

技术领域

[0001] 本发明涉及新闻文本分类技术领域,尤其涉及一种基于图网络池化的新闻文本分类方法。

背景技术

[0002] 随着大数据时代的快速发展,互联网上的文本数据呈现出爆炸式的增长,而在海量数据中挖掘出有效的信息具有非常重要的意义。由于新闻文本没有固定的格式,且种类多样,更新速度快,传统的人工分类效率低下且主观色彩较重。将图神经网络引入到新闻本文分类中,新闻文本视为一个图,图中的节点由词组成。新闻文本分类主要关注文本的总体特征,即研究对象是整个图本身。图神经网络一般由卷积层和池化层构成,其中关于图卷积的研究非常丰富,其主要目的是提取图的特征,但仅通过图卷积层的堆叠,模型很难学习对图表示和分类至关重要的信息。通过池化一方面可以减少学习的参数,另外一方面能反映图的不同尺度结构。
[0003] 现有的图池化方法包括TopK、DiffPool、SAGPool、ASAP。其中TopK通过自适应地选择节点的子集来完成池化,其使用一个可学习的向量将所有节点特征投影到1维,然后选择前k个最大标量投影值的节点。但由于其没有考虑到图的结构,只从特征这一方面评价节点的重要性,过于简单。DiifPool分别使用两个图神经网络对节点进行聚类和池化,但由于其软分配矩阵是稠密的,因此其不适用于大型图。SAGPool基于注意力机制通过结构和属性信息为每个节点学到一个标量,以此标量表征对应节点在整个图上的重要性,并对此标量进行排序并进行池化。但其既不聚合节点信息也不计算软边权重,因此无法有效地保留节点和边信息。ASAP对此进行了改进,但其在聚合节点信息时容易造成节点特征过于平滑,信息丢失较多,因此使得新闻文本分类效果不佳。目前,还没有池化方法在保留图中节点信息和边信息的同时,还避免节点特征过平滑的问题。

发明内容

[0004] 本发明的目的是针对现有技术的缺陷,提供了一种基于图网络池化的新闻文本分类方法。
[0005] 为了实现以上目的,本发明采用以下技术方案:
[0006] 一种基于图网络池化的新闻文本分类方法,包括步骤:
[0007] S1.在注意力机制中将结构信息与特征信息相结合,并计算图神经网络中一阶邻域内节点之间的相似性得分,得到具有相似性节点的注意力机制;
[0008] S2.采用稀疏概率激活函数sparsemax算法将得到的注意力机制进行稀疏化,得到节点相对应的集群;
[0009] S3.采用局部聚合卷积计算每个集群的分数,并通过得分高低来判断集群所含有的信息量;
[0010] S4.采用topk选出得分最高的前 个集群,并将选择出的集群进行重新连边得到最终池化后的神经网络。
[0011] 进一步的,所述步骤S1中得到具有相似性节点的注意力机制,表示为:
[0012] ei,j=σ(we[xi||xj]T)+λ·ai,j
[0013] 其中,σ表示激活函数; 表示权重向量; 和 分别奥斯节点i和节点j的特征向量;||表示拼接操作; 表示当前图的邻接矩阵;ai,j表示A的第i行第j列的值。
[0014] 进一步的,所述步骤S2中采用稀疏概率激活函数sparsemax算法将得到的注意力机制进行稀疏化后还包括得到稀疏的概率分布,表示为:
[0015]
[0016] 其中,si为ei进行归一化后的向量,ei表示节点i的注意力值,ei=[ei,1,ei,2,...ei,N]; 表示维度为N‑1的单纯形。
[0017] 进一步的,所述得到稀疏的概率分布中还包括:
[0018] 定义拉格朗日函数:
[0019]
[0020] 最优解集 满足下列KKT条件:
[0021]
[0022]
[0023]
[0024] 若j∈{1,...,N},有si,j*>0,则μi,j*=0,有*
[0025] 令c(ei)={z∈{1,...,N}|si,z>0},有 则
[0026] 稀疏的概率分布的对偶形式表示为:
[0027] si,j=sparse max(ei,j)=[ei,j‑τ(ei)]+
[0028]
[0029] 其中,[x]+=max{0,x};τ(·)表示阈值函数。
[0030] 进一步的,所述步骤S3中采用局部聚合卷积计算每个集群的分数中局部聚合卷积表示为:
[0031]
[0032] 其中,激活函数σ采用sigmoid; 分别表示节点i、节点j的邻域;表示可学习参数,考虑了集群的全局和局部重要性,综合得出每个集
群的分数; 表示第i个节点的特征变换;
表示当前节点与其一阶邻域内的节点差值。
[0033] 进一步的,其特征在于,所述步骤S4具体为:
[0034] 将适应度向量Φ=[φ1,φ2,...,φN]T与集群表示矩阵SX相乘,以使适应度函数fφ可学习:
[0035]T
[0036] 其中 表示哈达玛积;S=[s1,s2,...,sN]鄙视集群分配矩阵;X=[x1,x2,...,xN]表示特征矩阵;c
[0037] 函数TOPk(·)对适应度得分进行排序,并以比率k进行筛选保留,得出G 中前个所选集群的索引 表示为:
[0038]p
[0039] 通过选择前 个群集来形成池化图G ,则对应的分配矩阵 和节点特征矩阵 表示为:
[0040]p p
[0041] 对集群进行了采样后,池化图G中用 和 来获得新的邻接矩阵A:
[0042]
[0043] 其中, I表示单位矩阵。
[0044] 与现有技术相比,本发明的有益效果是:
[0045] 1、使用了注意力机制,将图的结构信息与节点的特征信息相结合,可以更加准确计算出节点之间的相似度。
[0046] 2、使用了sparsemax算法,对一阶邻域的注意力值进行稀疏化,使相似度高的节点形成集群,为集群形成提供了一种新的方法。
[0047] 3、将局部聚合卷积与topk算法相结合,有效地避免了节点特征过平滑的问题,并实现了自适应池化操作,比传统的图池化方法准确率更高。

实施方案

[0049] 以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
[0050] 本发明的目的是针对现有技术的缺陷,提供了一种基于图网络池化的新闻文本分类方法。
[0051] 实施例一
[0052] 本实施例提供一种基于图网络池化的新闻文本分类方法,如图1所示,包括步骤:
[0053] S1.在注意力机制中将结构信息与特征信息相结合,并计算图神经网络中一阶邻域内节点之间的相似性得分,得到具有相似性节点的注意力机制;
[0054] S2.采用稀疏概率激活函数sparsemax算法将得到的注意力机制进行稀疏化,得到节点相对应的集群;
[0055] S3.采用局部聚合卷积计算每个集群的分数,并通过得分高低来判断集群所含有的信息量;
[0056] S4.采用topk选出得分最高的前 个集群,并将选择出的集群进行重新连边得到最终池化后的神经网络。
[0057] 本实施例具体为:首先在图中,利用稀疏注意力自适应地选择相似度高的节点形成集群。在注意力机制中加入结构信息权重,使之与节点特征相结合,有利于学习结构,计算出其一阶邻域内节点之间的相似性得分,再利用sparsemax将注意力值进行稀疏化得到分配矩阵,由此得到最终每个集群的节点构成。然后利用局部聚合卷积函数聚合节点得到集群表示,并计算每个集群的信息量,使用TopK选择分数较高的集群,然后通过分配矩阵重新计算图的邻接矩阵,获得最终池化后图的特征矩阵和邻接矩阵。
[0058] 在步骤S1中,在注意力机制中将结构信息与特征信息相结合,并计算图神经网络中一阶邻域内节点之间的相似性得分,得到具有相似性节点的注意力机制。
[0059] 使用注意力机制计算图中一阶邻域内节点之间的相似性得分,其注意力机制将结构信息与特征信息相结合。
[0060] 为了使集群内的节点相似度高,选择在一阶范围内计算。通过注意力机制计算每个一阶邻域内节点之间的相似度,从而找到在当前邻域内应该关注哪些节点信息。此外,为了保持图的结构性,把图的结构也考虑进去,因此节点i和节点j之间的相似注意力为:
[0061] ei,j=σ(we[xi||xj]T)+λ·ai,j
[0062] 其中σ为激活函数, 为权重向量, 和 分别是节点i和节点j的特征向量,||为拼接操作。 表示当前图的邻接矩阵,ai,j为A的第i行第j列的值。
当节点i和节点j直接相连时,ai,j=0;当两个节点没有直接相连时,ai,j≠0。
[0063] 在步骤S2中,采用稀疏概率激活函数sparsemax算法将得到的注意力机制进行稀疏化,得到节点相对应的集群。
[0064] 采用sparsemax(稀疏概率激活函数)算法,将得到的注意力进行稀疏化,即对节点特征相似度小的直接赋为0。
[0065] 令si为ei进行归一化后的向量,其中ei为节点i的注意力值,即ei=[ei,1,ei,2,...ei,N]。 表示维度为N‑1的单纯形。在这里使用sparsemax,其特点是产生稀疏的概率分布:
[0066]
[0067] sparsemax直接将输出ei投影到单纯形的方式能够起到输出的稀疏化效果。但上述的函数形式在真实分布未知的情况下并不能直接求解。因此首先定义拉格朗日函数:
[0068]
[0069] 最优解集 满足下列KKT条件:
[0070]
[0071]
[0072]* *
[0073] 若j∈{1,...,N},有si,j>0,则μi,j=0,有 令c(ei)={z∈{1,...,N}*|si,z>0},有 则
[0074] 综合上述,其对偶形式为
[0075] si,j=sparsemax(ei,j)=[ei,j‑τ(ei)]+
[0076]
[0077] 其中[x]+=max{0,x},τ(·)为阈值函数,sparsemax(·)保留阈值以上的值,小于阈值的则设为零。
[0078] 在步骤S3中,采用局部聚合卷积计算每个集群的分数,并通过得分高低来判断集群所含有的信息量。
[0079] 利用局部聚合卷积计算出每个集群的分数,通过得分高低来判断集群所含有的信息量;
[0080] 使用适应度函数fφ,根据集群适应度得分φi对集群进行采样。为了计算集群所含有的信息量,对集群表示采取聚合的方式,并计算其局部信息,即局部聚合卷积:
[0081]
[0082] 其中激活函数σ采用sigmoid, 分别表示节点i、节点j的邻域,是可学习参数。其同时考虑了集群的全局和局部重要性,可以综合得出每个集群的分数。前一项 为第i个节点的特征变换,后一项
为当前节点表示与其一阶邻域内的节点表示差
值,若其邻节点能很好表示该节点,则后一项的得分较低,也就是说,舍弃该节点对整体的影响不大。由于之前的注意力稀疏化没有包含每个一阶邻节点信息,所以此处当前节点与其邻域节点的差异性增大,从而筛选出含有信息量较多的节点。
[0083] 在步骤S4中,采用topk选出得分最高的前 个集群,并将选择出的集群进行重新连边得到最终池化后的神经网络。
[0084] 利用topk选出得分最高的前 个集群,并将这些集群进行重新连边得到最终池化后的图;
[0085] 将适应度向量Φ=[φ1,φ2,...,φN]T与集群表示矩阵SX相乘,以使适应度函数fφ可学习:
[0086]
[0087] 其中 为哈达玛积,S=[s1,s2,...,sN]为集群分配矩阵,X=[x1,x2,...,xN]T为特c征矩阵。函数TOPk(·)对适应度得分进行排序,并以比率k进行筛选保留,得出G中前个所选集群的索引 如下所示:
[0088]
[0089] 通过选择这些前 个群集来形成池化图Gp。则对应的分配矩阵 和节点特征矩阵 由下式给出:
[0090]
[0091] 对集群进行了采样后,池化图Gp中用 和 来获得新的邻接矩阵Ap:
[0092]
[0093] 其中 I为单位矩阵。如果两个集群之间中有共同节点,或者这两个集群中p存在节点在原始图G中是相连的,则这个公式可以保证在图G中集群i和j是相连的,增强了图的连通性,减少孤立节点的存在。
[0094] 与现有的新闻文本分类方法相比,本发明的有益效果是:
[0095] 1、使用了注意力机制,将图的结构信息与节点的特征信息相结合,可以更加准确计算出节点之间的相似度。
[0096] 2、使用了sparsemax算法,对一阶邻域的注意力值进行稀疏化,使相似度高的节点形成集群,为集群形成提供了一种新的方法。
[0097] 3、将局部聚合卷积与topk算法相结合,有效地避免了节点特征过平滑的问题,并实现了自适应池化操作,比传统的图池化方法准确率更高。
[0098] 注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

附图说明

[0048] 图1是实施例一提供的一种基于图网络池化的新闻文本分类方法流程图。
专利联系人(活跃度排行)
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号