首页 > 专利 > 重庆理工大学 > 一种基于中文句法和图卷积神经网络的情感分类系统专利详情

一种基于中文句法和图卷积神经网络的情感分类系统   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2020-08-26
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2020-12-15
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2021-05-28
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2040-08-26
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN202010873939.4 申请日 2020-08-26
公开/公告号 CN112001187B 公开/公告日 2021-05-28
授权日 2021-05-28 预估到期日 2040-08-26
申请年 2020年 公开/公告年 2021年
缴费截止日
分类号 G06F40/30G06F40/211G06F16/35G06N3/04G06N3/08 主分类号 G06F40/30
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 5
权利要求数量 6 非专利引证数量 1
引用专利数量 0 被引证专利数量 0
非专利引证 1、CN 111259142 A,2020.06.09CN 110704626 A,2020.01.17孙璇.基于卷积神经网络的文本分类方法研究《.中国优秀硕士学位论文全文数据库 信息科技辑》.2018,;
引用专利 被引证专利
专利权维持 2 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 重庆理工大学 当前专利权人 重庆理工大学
发明人 刘小洋、代尚宏、唐婷 第一发明人 刘小洋
地址 重庆市巴南区红光大道69号 邮编 400054
申请人数量 1 发明人数量 3
申请人所在省 重庆市 申请人所在市 重庆市巴南区
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
重庆天成卓越专利代理事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
王宏松
摘要
本发明提出了一种基于中文句法和图卷积神经网络的情感分类系统,包括以下步骤:S1,获取社交网络文本,将获取的社交网络文本作为待处理文本,对待处理文本进行预处理;S2,学习句子及属性子句的上下文信息,得到相应的特征表示;S3,根据获取的给定文本的依存关系及语法信息,生成句子的语义树;S4,根据嵌入了特征向量的依赖树,利用图卷积网络生成给定文本的情感特征表示;S5,利用Softmax分类器构造每个情绪标记的条件概率分布,并输出文本的最终情感标签。本发明能够对获取的社交网络文本情感进行分类,为社交网络平台中的短文本提供更细致、更深入的情感分析。
  • 摘要附图
    一种基于中文句法和图卷积神经网络的情感分类系统
  • 说明书附图:图1
    一种基于中文句法和图卷积神经网络的情感分类系统
  • 说明书附图:图2
    一种基于中文句法和图卷积神经网络的情感分类系统
  • 说明书附图:图3
    一种基于中文句法和图卷积神经网络的情感分类系统
  • 说明书附图:图4
    一种基于中文句法和图卷积神经网络的情感分类系统
  • 说明书附图:图5
    一种基于中文句法和图卷积神经网络的情感分类系统
  • 说明书附图:图6
    一种基于中文句法和图卷积神经网络的情感分类系统
  • 说明书附图:图7
    一种基于中文句法和图卷积神经网络的情感分类系统
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-05-28 授权
2 2020-12-15 实质审查的生效 IPC(主分类): G06F 40/30 专利申请号: 202010873939.4 申请日: 2020.08.26
3 2020-11-27 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于中文句法和图卷积神经网络的情感分类系统,其特征在于,包括获取预处理模块、数据处理模块、数据分类模块和数据展示模块;
所述获取预处理模块的数据输出端与数据处理模块的数据输入端相连,数据处理模块的数据输出端与数据分类模块的数据输入端相连,数据分类模块的数据输出端与数据展示模块的数据输入端相连;
所述获取预处理模块用于获取社交网络文本,将获取的社交网络文本作为待处理文本,对待处理文本进行预处理;
数据处理模块包括句子特征表示模块和情感特征表示模块,句子特征表示模块的数据输入端与获取预处理模块的数据输出端相连,句子特征表示模块的数据输出端与情感特征表示模块的数据输入端相连;在句子特征表示模块中包括:
首先用当前时间步的输入xt和上一时间步的隐藏状态输出 计算得到原始前反馈输出
其中,Wzx表示当前时间步输入的激活权重;
xt表示当前时间步的输入;
Wzh表示上一时间步的隐藏状态输出的激活权重;
表示上一时间步的隐藏状态输出;
bz表示第一偏置项;
表示原始前反馈输出;
然后把这个输出结果一分为二,即 和 分别激活:
其中,σ()表示激活函数sigmoid;
表示输入到重置门的原始前馈输出;
rt表示当前时间步的重置门输出;
其中,σ()表示激活函数sigmoid;
表示输入到更新门的原始前馈输出;
zt表示当前时间步的更新门输出;
再使用当前时间步的重置门输出rt和当前时间步的输入xt一起计算另一个中间前馈输出:
其中,Wax表示当前时间步输入的激活权重;
xt表示当前时间步的输入;
War表示当前时间步重置门输出的激活权重;
表示上一时间步的隐藏状态输出;
表示按矩阵元素进行点乘;
rt表示当前时间步的重置门输出;
ba表示第二偏置项;
at表示中间前馈输出;
对中间前馈输出at做双曲正切激活:
其中,tanh()表示双曲正切函数;
at表示中间前馈输出;
表示通过重置门后的状态;
以更新门的输出作为开关,得到当前时间步的隐状态输出:
其中, 表示上一时间步的隐藏状态输出;
表示按矩阵元素进行点乘;
zt表示当前时间步的更新门输出;
表示通过重置门后的状态;
表示当前时间步的隐状态;
所述句子特征表示模块用于学习句子及属性子句的上下文信息,得到相应的特征表示;
所述情感特征表示模块用于根据嵌入了特征向量的依赖树,利用图卷积网络生成给定文本的情感特征表示;
所述数据分类模块用于利用Softmax分类器构造每个情绪标记的条件概率分布,并输出文本的最终情感标签;
所述数据展示模块用于展示数据分类模块输出的情感。

2.根据权利要求1所述的基于中文句法和图卷积神经网络的情感分类系统,其特征在于,在获取预处理模块中,对待处理文本进行预处理包括以下之一或者任意组合步骤:
S11,使用正则表达式去除无用符;
S12,将情绪子句的变化维数重塑成统一大小的特征向量;
S13,将中文文本分割成单词;
S14,每个单词或词组映射为实数域上的向量。

3.根据权利要求1所述的基于中文句法和图卷积神经网络的情感分类系统,其特征在于,在情感特征表示模块中包括:
(0)
H =X,
其中,X表示图卷积模型的输入矩阵;
(0)
H 表示图卷积模型第0层的隐藏状态;
其中,RELU()表示激活函数;
表示依赖树的度矩阵;
A表示从语法层得到的句法依赖树的邻接矩阵;
(l)
H 表示表示图卷积模型第l层的隐藏状态;
(l)
W 表示表示图卷积模型第l层的权重;
f()表示计算图卷积模型隐藏状态的函数;
(l+1) (l)
H =f(H ,A);
其中,f()表示计算图卷积模型隐藏状态的函数;
(l)
H 表示表示图卷积模型第l层的隐藏状态;
A表示从语法层得到的句法依赖树的邻接矩阵;
(l+1)
H 表示图卷积模型第l+1层的隐藏状态。

4.根据权利要求1所述的基于中文句法和图卷积神经网络的情感分类系统,其特征在于,在数据分类模块中包括:
yj=softmax(wHj+b),
其中,softmax()表示深度学习中的激活函数;
w表示训练学习到的权重;
Hj表示图卷积层中第j个句子的输出;
b表示训练学习到的偏置;
yj表示第j个句子输出的标签;
其中,yj表示第j个句子输出的标签;
J表示输入句子的总个数;
pj表示第j个句子情感的最终预测值。

5.根据权利要求1所述的基于中文句法和图卷积神经网络的情感分类系统,其特征在于,在数据展示模块中包括展示:
其中,J表示输入句子的总个数;
Yj表示j个句子情感的真实值;
pj表示第j个句子情感的最终预测值;
λ表示L2正则化系数;
θ表示表示所有可训练参数;
Loss表示模型的损失值。

6.根据权利要求1所述的基于中文句法和图卷积神经网络的情感分类系统,其特征在于,在数据展示模块中包括展示评估参数,评估参数包括精确率P、召回率Recall、精确率和召回率的调和均值F1、准确率Acc、宏平均F1值Macro_F1、样本的微平均召回率Micro_R、样本的微平均精确率Micro_P、微平均F1值Micro_F1之一或者任意组合;
其精确率P的计算方法为:
其中,TP表示正确预测的样本;
FN表示当前类别被错误判定为其他类别的样本;
P表示精确率;
其召回率Recall的计算方法为:
其中,TP表示正确预测的样本;
FP表示其他类别被判定为当前类别的样本;
Recall表示召回率;
其精确率和召回率的调和均值F1的计算方法为:
其中,P表示精确率;
Recall表示召回率;
F1表示精确率和召回率的调和均值;
其准确率Acc的计算方法为:
其中,m表示样本的类别;
TPi表示第i类样本正确预测的样本数;
FPi表示其他类别被判定为i类别的样本数;
FNi表示当前i类别被错误判定为其他类别的样本数;
Acc表示准确率;
其宏平均F1值Macro_F1的计算方法为:
其中,m表示样本的类别;
F1i表示当前i类别的F1值;
Macro_F1表示宏平均F1值;
其样本的微平均召回率Micro_R的计算方法为:
其中,m表示表示样本的类别;
TPi表示第i类样本正确预测的样本数;
FPi表示其他类别被判定为i类别的样本数;
Micro_R表示样本的微平均召回率;
其样本的微平均精确率Micro_P的计算方法为:
其中,m表示表示样本的类别;
TPi表示第i类样本正确预测的样本数;
FNi表示当前i类别被错误判定为其他类别的样本数;
Micro_P表示样本的微平均精确率;
其微平均F1值Micro_F1的计算方法为:
其中,Micro_P表示样本的微平均精确率;
Micro_R表示样本的微平均召回率;
Micro_F1表示微平均F1值。
说明书

技术领域

[0001] 本发明涉及一种社交网络技术领域,特别是涉及一种基于中文句法和图卷积神经网络的情感分类系统。

背景技术

[0002] 近年来,情感分析(Sentiment Analysis,SA)一直是自然语言处理(Natural Language Processing,NLP)领域的一个热门话题,也是近年来的研究热点。情绪分析是一种自动分析文本和解释背后的情绪的过程。通过机器学习和文本分析算法可以按照语句情感将文本分类为肯定,否定和中性三类。随着移动互联网的普及,网络用户已经习惯于在网络上表达意见和建议,比如电商网站上对商品的评价、社交媒体中对品牌、产品、政策的评价等等。网络用户对现实世界的感知和感受,包括他们做出的任何选择,都会受到其他人对现实世界的看法和影响。所以,对网民感兴趣的事物所发表的观点和感受进行挖掘分析,并将其研究成果运用到舆情分析、市场研究、客户体验分析等领域,这就是情感分析的研究意义所在。

发明内容

[0003] 本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种基于中文句法和图卷积神经网络的情感分类系统。
[0004] 为了实现本发明的上述目的,本发明提供了一种基于中文句法和图卷积神经网络的情感分类系统,包括获取预处理模块、数据处理模块、数据分类模块和数据展示模块;
[0005] 所述获取预处理模块的数据输出端与数据处理模块的数据输入端相连,数据处理模块的数据输出端与数据分类模块的数据输入端相连,数据分类模块的数据输出端与数据展示模块的数据输入端相连;
[0006] 所述获取预处理模块用于获取社交网络文本,将获取的社交网络文本作为待处理文本,对待处理文本进行预处理;
[0007] 数据处理模块包括句子特征表示模块和情感特征表示模块,句子特征表示模块的数据输入端与获取预处理模块的数据输出端相连,句子特征表示模块的数据输出端与情感特征表示模块的数据输入端相连;
[0008] 所述句子特征表示模块用于学习句子及属性子句的上下文信息,得到相应的特征表示;
[0009] 所述情感特征表示模块用于根据嵌入了特征向量的依赖树,利用图卷积网络生成给定文本的情感特征表示;
[0010] 所述数据分类模块用于利用Softmax分类器构造每个情绪标记的条件概率分布,并输出文本的最终情感标签;
[0011] 所述数据展示模块用于展示数据分类模块输出的情感。
[0012] 在本发明的一种优选实施方式中,在获取预处理模块中,对待处理文本进行预处理包括以下之一或者任意组合步骤:
[0013] S11,使用正则表达式去除无用符;
[0014] S12,将情绪子句的变化维数重塑成统一大小的特征向量;
[0015] S13,将中文文本分割成单词;
[0016] S14,每个单词或词组映射为实数域上的向量。
[0017] 在本发明的一种优选实施方式中,在句子特征表示模块中包括:
[0018] 首先用当前时间步的输入xt和上一时间步的隐藏状态输出 计算得到原始前反馈输出
[0019]
[0020] 其中,Wzx表示当前时间步输入的激活权重;
[0021] xt表示当前时间步的输入;
[0022] Wzh表示上一时间步的隐藏状态输出的激活权重;
[0023] 表示上一时间步的隐藏状态输出;
[0024] bz表示第一偏置项;
[0025] 表示原始前反馈输出;
[0026] 然后把这个输出结果一分为二,即 和 分别激活:
[0027]
[0028] 其中,σ()表示激活函数sigmoid;
[0029] 表示输入到重置门的原始前馈输出;
[0030] rt表示当前时间步的重置门输出;
[0031]
[0032] 其中,σ()表示激活函数sigmoid;
[0033] 表示输入到更新门的原始前馈输出;
[0034] zt表示当前时间步的更新门输出;
[0035] 再使用当前时间步的重置门输出rt和当前时间步的输入xt一起计算另一个中间前馈输出:
[0036]
[0037] 其中,Wax表示当前时间步输入的激活权重;
[0038] xt表示当前时间步的输入;
[0039] War表示当前时间步重置门输出的激活权重;
[0040] 表示上一时间步的隐藏状态输出;
[0041] 表示按矩阵元素进行点乘;
[0042] rt表示当前时间步的重置门输出;
[0043] ba表示第二偏置项;
[0044] at表示中间前馈输出;
[0045] 对中间前馈输出at做双曲正切激活:
[0046]
[0047] 其中,tanh()表示双曲正切函数;
[0048] at表示中间前馈输出;
[0049] 表示通过重置门后的状态;
[0050] 以更新门的输出作为开关,得到当前时间步的隐状态输出:
[0051]
[0052] 其中, 表示上一时间步的隐藏状态输出;
[0053] 表示按矩阵元素进行点乘;
[0054] zt表示当前时间步的更新门输出;
[0055] 表示通过重置门后的状态;
[0056] 表示当前时间步的隐状态。
[0057] 在本发明的一种优选实施方式中,在情感特征表示模块中包括:
[0058] H(0)=X,
[0059] 其中,X表示图卷积模型的输入矩阵;
[0060] H(0)表示图卷积模型第0层的隐藏状态;
[0061]
[0062] 其中,RELU()表示激活函数;
[0063] 表示依赖树的度矩阵;
[0064] A表示从语法层得到的句法依赖树的邻接矩阵;
[0065] H(l)表示表示图卷积模型第l层的隐藏状态;
[0066] W(l)表示表示图卷积模型第l层的权重;
[0067] f()表示计算图卷积模型隐藏状态的函数;
[0068] H(l+1)=f(H(l),A);
[0069] 其中,f()表示计算图卷积模型隐藏状态的函数;
[0070] H(l)表示表示图卷积模型第l层的隐藏状态;
[0071] A表示从语法层得到的句法依赖树的邻接矩阵;
[0072] H(l+1)表示图卷积模型第l+1层的隐藏状态。
[0073] 在本发明的一种优选实施方式中,在数据分类模块中包括:
[0074] yj=softmax(wHj+b),
[0075] 其中,softmax()表示深度学习中的激活函数;
[0076] w表示训练学习到的权重;
[0077] Hj表示图卷积层中第j个句子的输出;
[0078] b表示训练学习到的偏置;
[0079] yj表示第j个句子输出的标签;
[0080]
[0081] 其中,yj表示第j个句子输出的标签;
[0082] J表示输入句子的总个数;
[0083] pj表示第j个句子情感的最终预测值。
[0084] 在本发明的一种优选实施方式中,在数据展示模块中包括展示:
[0085]
[0086] 其中,J表示输入句子的总个数;
[0087] Yj表示j个句子情感的真实值;
[0088] pj表示第j个句子情感的最终预测值;
[0089] λ表示L2正则化系数;
[0090] θ表示表示所有可训练参数;
[0091] Loss表示模型的损失值。
[0092] 在本发明的一种优选实施方式中,在数据展示模块中包括展示评估参数,评估参数包括精确率P、召回率Recall、精确率和召回率的调和均值F1、准确率Acc、宏平均F1值Macro_F1、样本的微平均召回率Micro_R、样本的微平均精确率Micro_P、微平均F1值Micro_F1之一或者任意组合;
[0093] 其精确率P的计算方法为:
[0094]
[0095] 其中,TP表示正确预测的样本;
[0096] FN表示当前类别被错误判定为其他类别的样本;
[0097] P表示精确率;
[0098] 其召回率Recall的计算方法为:
[0099]
[0100] 其中,TP表示正确预测的样本;
[0101] FP表示其他类别被判定为当前类别的样本;
[0102] Recall表示召回率;
[0103] 其精确率和召回率的调和均值F1的计算方法为:
[0104]
[0105] 其中,P表示精确率;
[0106] Recall表示召回率;
[0107] F1表示精确率和召回率的调和均值;
[0108] 其准确率Acc的计算方法为:
[0109]
[0110] 其中,m表示样本的类别;
[0111] TPi表示第i类样本正确预测的样本数;
[0112] FPi表示其他类别被判定为i类别的样本数;
[0113] FNi表示当前i类别被错误判定为其他类别的样本数;
[0114] Acc表示准确率;
[0115] 其宏平均F1值Macro_F1的计算方法为:
[0116]
[0117] 其中,m表示样本的类别;
[0118] F1i表示当前i类别的F1值;
[0119] Macro_F1表示宏平均F1值;
[0120] 其样本的微平均召回率Micro_R的计算方法为:
[0121]
[0122] 其中,m表示表示样本的类别;
[0123] TPi表示第i类样本正确预测的样本数;
[0124] FPi表示其他类别被判定为i类别的样本数;
[0125] Micro_R表示样本的微平均召回率;
[0126] 其样本的微平均精确率Micro_P的计算方法为:
[0127]
[0128] 其中,m表示表示样本的类别;
[0129] TPi表示第i类样本正确预测的样本数;
[0130] FNi表示当前i类别被错误判定为其他类别的样本数;
[0131] Micro_P表示样本的微平均精确率;
[0132] 其微平均F1值Micro_F1的计算方法为:
[0133]
[0134] 其中,Micro_P表示样本的微平均精确率;
[0135] Micro_R表示样本的微平均召回率;
[0136] Micro_F1表示微平均F1值。
[0137] 综上所述,由于采用了上述技术方案,本发明能够对获取的社交网络文本情感进行分类,为社交网络平台中的短文本提供更细致、更深入的情感分析。
[0138] 本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。

实施方案

[0147] 下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
[0148] 1前言
[0149] 文本情感分析技术主要研究如何对文本所表达的观点、情感、立场、态度等主观性信息进行自动分析,从海量文本中识别出人们对某一产品、事件所持有的观点,提高对文本情感分析的效率。
[0150] 根据对文本处理的粒度不同,情感分析大致可分为词语情感分析、句子情感分析、文档情感分析三个层次。
[0151] 词语情感分析的对象是在特定的句子中出现的词和短语。表达情感的词大多是名词、动词、副词和形容词,其情感倾向可以分为积极、消极和中性三类,词语情感分析包括对词的情感极性、情感强度以及上下文模式等进行分析。
[0152] 句子情感分析的对象是在特定的上下文中出现的句子,其目的是通过分析句子中的各种主观性信息,与情感倾向性相关的各个要素,提取句子情感特征,实现对句子情感倾向的判断。
[0153] 文档情感分析的对象是一篇完整的文章,从整体上分析某篇文章的情感倾向。由于文档情感分析属于文本分类问题,通常采用机器学习方法来解决文本情感分析问题。本发明专利主要针对社交网络平台的短文本,因而本发明专利的工作属于句子情感分析。
[0154] 句子情感分析的研究难点主要在于任意一个人工生成的句子中均包含多层含义。人们用复杂的方式表达意见,而诸如嘲讽、讽刺和隐含意义之类的修辞会影响情感分析的最终结果。
[0155] 现有的句子情感分析方法大多以深度学习为基础,把短文本作为一个整体对其进行编码,忽视了句子的句法结构,仅利用相邻词语的语义信息,对具体词语进行上下文感知表征而不能确定不相邻的多个单词所描述的情感。近几年来的研究表明通过句法依赖树从属句中的句法信息可以有效地抓取情感特征,为情感分析提供强有力的支持,如Luo H提出了双向依赖树网络,即显式合并与自下而上和自上而下传播分开获得的两种表示形式从而解决方面提取问题。Ahmed M设计了针对句法依赖树和短语结构树的通用注意力框架。Zhang J通过图神经网络建立了沿依赖弧交互模型。利用基于语法的自我注意功能,可直接操纵语法图,获取结构信息。除情感分析外,句法依赖树也使得神经网络在自然语言生成、Dialogue Understanding等NLP任务上有了很大的提升。由于依赖树的特殊结构,本发明专利通过引入图卷积神经网络(Graph Convolutional Networks,GCN)来捕获高阶语义信息。
图卷积最先提出是为了解决社交网络、知识图谱、信息网络中的非欧几里得结构数据,目前广泛运用于图像检测、用户推荐、图像分类。Wan S提出了GCN网络用于文本分类,在整个语料集上构建图,将单词和文章数作为图中的节点,利用共现信息来构建图中的边,然后将文本分类问题看作是节点分类问题,并取得了较好的效果。
[0156] 本发明专利为了整合语法信息,充分利用句中的语法结构,提出了一种基于句法依赖树的GCN模型来检测情感极性。首先,采用双向的门控神经网络(Gated Recurrent Unit,GRU)对每个词进行特征提取。然后将词特征与依赖解析树的邻接矩阵相融合输入到GCN中,通过最大池化层进行特征融合,最终通过Softmax函数得出结果。
[0157] 本发明专利主要创新点如下:
[0158] ·构建了给定中文短文本的句法依赖树,通过句法依赖树分析数据集文本中词汇之间的语法关系,挖掘词汇间的隐藏关系。
[0159] ·提出了一种基于中文句法依赖树的图形卷积网络情感分类模型(DTGRU)。该模型通过将Bi‑GRU提取的初步特征与句子的句法树相融合,再使用GCN进行卷积,获取文本的综合特征,从而实现中文文本情感分类。
[0160] ·本发明专利与六个基线模型(CNN、LSTM、CNN+LSTM、TextCNN、BiGRU+GCN)进行比较,以准确率Accuracy(ACC)、精确率P、宏平均F1值(Macro_F1)和召回率(Recall)作为实验评判指标。通过对比实验得出,DTGRU模型的准确率和Macro_F1值相对于基准模型提升了4.45%及3.71%,验证了利用语法信息和长期单词依赖的重要性,证明了DTGRU模型在情感分类中的有效性。
[0161] 2相关工作
[0162] 2.1情感分类中的深度学习
[0163] 当前情感分析中的分析技术大体分为3种:基于规则的方法、基于机器学习的方法、基于深度学习的方法。基于规则的方法是使用一组人为制定的规则来帮助识别句子情感极性,例如:定义正极化和负极化的词表,计算给定文本中的极性数,如果正极化的词数大于负极化的词数,算法将返回正极化的判断结果,反之亦然。若两极性出现的次数相同,则返回中性的判断结果。此方法原理相对简单,但工作繁琐且没有考虑单词句子序列中的组合方式,且词性列表更新复杂,需要不断维护。
[0164] 在基于机器学习的方法中,情感分析任务通常作为一个分类问题来建模,它提供文本给分类器,返回一个肯定、否定或中性的分类结果,如图1所示。
[0165] 在训练过程中,模型根据训练所用的测试样本学习,将特定的输入(即文本)和相应的输出(标签)联系起来。特征器将输入的文本转换成特征向量。成对的特征向量和标记(如正、负或中性)输入机器学习算法(如朴素贝叶斯( Bayes)、支持向量机(Support Vector Machines)和逻辑回归(Logistic Regression))来生成模型。在预测过程中,特征提取器将文本输入转换为特征向量,这些特征向量随后被输入到模型中,生成一个预测标签(如正、负或中性)。
[0166] 基于深度学习的方法中主要分为两个步骤:首先将需要分类的评论语料表示为语义词向量(Word Embedding);其次,利用不同的语义合成方法,得到与之相对应的句子或文档的特征表达式,最后通过深度神经网络进行分类。目前常用于情感分析的深度学习模型包括:卷积神经网络(Convolutional Neural Networks,CNN)、循环神经网络(Recurrent Neural Network,RNN)、长短记忆神经网络(Long‑Short Term Memory,LSTM)等。
[0167] Kim利用卷积神经网络(CNN)用预先训练好的词向量对句子级别的文本分类做了一系列实验。从而表明,一个简单的CNN,只需少量超参数调整和静态向量,就可以在多个基准测试中取得出色的结果。Makoto提出将空间金字塔池与Max Pooling结合使用门控CNN进行客户评论的情感分类。Meng提出了一种基于多层卷积神经网络的迁移学习方法。从源域中提取特征,并在源域和目标域样本之间的卷积层和池化层中共享权重。
[0168] 除了单独使用CNN,一些研究者还将CNN与RNN结合起来以达到更好的分类效果。Jiang将LSTM与CNN结合在一起,同时利用LSTM处理远程依赖性和CNN识别本地特征的能力。
LSTM提取的特征将通过卷积和池化操作再次进行过滤,以找到重要的局部特征。Luo提出带有门控循环单元(GRU)的CNN用作分类器。根据输入特征矩阵,GRU‑CNN增强了单词与单词,文本与文本之间的关系,从而实现了高精度的情感分类。Abid以词嵌入为深度神经结构的输入,采用RNN模型的变体Bi‑LSTM,GRU,Bi‑GRU三种循环神经网络进行长期依赖性的捕获。
[0169] 以上这些工作未使用依赖解析树来训练深度学习网络,忽略了文本的句法信息。而依存解析树可以更加准确、清晰地揭示句子的同义结构。因而,本发明专利采用Bi‑GRU模型和图形卷积神经网络相结合可增强对短文本的情感理解。
[0170] 2.2GRU
[0171] 为了缓解传统RNN的长距离依赖问题和其在反向传播过程中梯度消失和梯度爆炸问题,LSTM在RNN的基础上加入输入门、遗忘门和输出门来控制输入值、记忆值和输出值,这样网络可以对历史信息进行有选择地舍弃或者保留。
[0172] GRU是对LSTM的进一步的改进。GRU将LSTM中的遗忘门和输入门用更新门来代替,由于GRU参数较少,代码更容易修改和维护,且大大地减少了训练网络参数过程中的计算量,计算效率更高,需要更短的训练时间。
[0173] 在单向的神经网络结构中,状态总是从前往后输出的,GRU模型单个时间步的内部结构如图2所示。
[0174] 图2中r为重置门,决定是否忽略上一个时间步的隐状态ht‑1;如果激活权重降低,当前时间步会更多地捕捉到短时间跨度的依赖信息,重置门激活趋于0时,当前时间步的输t入x会更大程度影响隐状态h′的输出,起到遗忘长时间跨度依赖的结果。更新门z选择是否t
用新的候选隐状态h′来更新输出隐状态h。GRU模型每个时间步各自具有重置门r和更新门z,每个时间步的隐藏节点会学习捕捉不同时间跨度下不同依赖信息的特征。在文本情感分类中,如果当前时刻的输出能与前一时刻的状态和后一时刻的状态都产生联系如同选词填空一样,通过空白处的上下文推断空白处的词语。这种情况就需要Bi‑GRU来建立这种联系。
[0175] 表1GRU研究对比
[0176]
[0177]
[0178] Bi‑GRU是由单向、方向相反、输出由这两个GRU的状态共同决定的GRU组成的神经网络模型。在每一时刻,输入会同时提供两个方向相反的GRU,而输出则由这两个单向GRU共同决定。表1展示了本发明专利文献调查中GRU论文的研究对比。
[0179] 综上所述,尽管越来越多的研究从网络文本中识别对特定主题的积极和消极情绪的方法,但这些研究大多是针对英语文本的情绪分析,而汉语情绪分析领域仍处于萌芽状态。因而,本发明专利为了学习更多中文句子的情感特征,及句子语法中的隐藏信息,提出一种基于句法依赖树的图卷积网络(DTGCN),一方面使用句法依赖树将句法信息聚合到上下文和方面词的表示中,另一方面通过Bi‑GRU网络提取句子的初步特征,将其嵌入句法依赖树中,最后将句法依赖树输入图卷积网络得到最终情感特征。
[0180] 3提出的情感分类方法
[0181] 在社交网络中,大多数的短文本都有各种各样的情感倾向,而有些文本却没有表达任何情感。在诸如心理学研究或用户情感肖像之类的实际应用中,对社交网络进行情感分析是必要的。本发明专利所设计的DTGCN网络模型共由五层组成:①输入层:主要负责对句子进行一些预处理;②Bi‑GRU:利用双向GRU层提取文本的隐藏语义;③语法层:通过分析句中语法关系,获取句法依赖树。④图卷积层:将在编码层提取的特征向量嵌入到句法依赖树的节点上,图卷积网络直接在文本的句法依赖树上操作,获取给定文本的情感特征。⑤输出层:针对图卷积的输出结果利用Softmax层预测相应的情感极性并输出最后将进行分类,得到最终结果。
[0182] 结合句法依赖树的图卷积情感分类模型DTGCN结构如图3。
[0183] 3.1输入层
[0184] a)Normalization
[0185] 社交网络中的文本大都是网络文本,其中存在很多无用的价值信息,例如“”~@#¥%……&*等特殊字符,在中文情感分析模型中不会添加较为有意义的信息,且添加这些特殊字符会使得结果复杂化不利于句子分词的进行,可使用正则表达式去除无用符。
[0186] 由于网络文本长度不固定,为了避免在点积相似度计算中出现不一致的表示,将情绪子句的变化维数重塑成统一大小的特征向量即句子长度小于规定值的,默认自动在后面填充特殊的符号(本发明专利填充0);句子长度大于规定值的,将大于规定值的部分截去。本发明专利数据集的句子长度分布如图4所示,从图4中可以看出,长度大于170的很少,鲜少有大于200长度的句子,句子长度大多分布在150以内,符合社交网络平台中文本较短的特点,其中140左右长度的句子出现次数最多,因此本发明专利的规定值取为140即句子长度大于140时,多余的部分将会被剔除,不参与模型训练。
[0187] b)Tokenization
[0188] 分词或者称为原始文本的标记化是许多NLP任务的标准预处理步骤。对英语来说,分词通常可以使用空格将语句进行拆分。对于汉语来说,汉语文本有一些不同于英语文本的特点,即书写风格是连续的,没有空格。因此,根据分词标准定义了将中文文本分割成一系列单词的步骤。本发明专利选用一个专门处理中文分词的Python包Jieba。它的工作原理是首先对单个汉字进行标记,然后在返回完整的句子之前用空格连接这些标记。
[0189] c)嵌入层(Embedding)
[0190] 语句属于人类认知过程中产生的高层认知抽象实体,包括神经网络在内的大多数机器学习模型都不能处理原始形式的文本,需要数字作为输入。所以,要将字典中的字符转换为连续向量,就必须进行词嵌入即将一个维度为所有词的数量的高维空间(几万字,十几万个词)嵌入一个维度低得多的连续向量空间(通常是128维或256维)中,每个单词或词组被映射为实数域上的向量。本发明专利使用随机初始化的方法用一个随机向量来表示每个单词,并且在网络训练过程中会更新向量。
[0191] 经过上面的三步的操作之后,输入的数据就变成根据索引对应词向量的形成词矩阵。
[0192] 3.2Bi‑GRU层
[0193] 编码层的主要任务是利用Bi‑GRU分别学习句子及属性子句的上下文信息,并得到相应的特征表示。Bi‑GRU的结构如图5所示。
[0194] 对于Bi‑GRU的前向传播算法,可以首先用当前时间步的输入xt和上一时间步的隐藏状态输出 计算得到原始前反馈输出
[0195]
[0196] 其中,Wzx表示当前时间步输入的激活权重;xt表示当前时间步的输入;Wzh表示上一时间步的隐藏状态输出的激活权重; 表示上一时间步的隐藏状态输出;bz表示第一偏置项;表示原始前反馈输出。
[0197] 然后把这个输出结果一分为二,即 和 分别激活:
[0198]
[0199] 其中,σ()表示激活函数sigmoid; 表示输入到重置门的原始前馈输出;rt表示当前时间步的重置门输出。
[0200]
[0201] 其中, 表示输入到更新门的原始前馈输出;zt表示当前时间步的更新门输出。
[0202] 再使用当前时间步的重置门输出rt和当前时间步的输入xt一起计算另一个中间前馈输出:
[0203]
[0204] 其中,Wax表示当前时间步输入的激活权重;xt表示当前时间步的输入;War表示当前时间步重置门输出的激活权重; 表示上一时间步的隐藏状态输出; 表示按矩阵元素进行点乘;rt表示当前时间步的重置门输出;ba表示第二偏置项;at表示中间前馈输出。
[0205] 对中间前馈输出at做双曲正切激活:
[0206]
[0207] 其中,tanh()表示双曲正切函数;at表示中间前馈输出;表示通过重置门后的状态。
[0208] 以更新门的输出作为开关,得到当前时间步的隐状态输出:
[0209]
[0210] 其中, 表示上一时间步的隐藏状态输出; 表示按矩阵元素进行点乘;zt表示当前时间步的更新门输出;表示通过重置门后的状态;表示当前时间步的隐状态。
[0211] 3.4语法层
[0212] 依赖关系有两种表现形式,一种是直接在句子上标出依存关系箭头及语法信息,另外一种是将句子的语法关系做成树状结构。本发明专利使用依存关系箭头表示句子的语法关系。
[0213] 具体来说通过获取给定文本的依存关系及语法信息,生成句子的语义树,句子的语义树会以邻接矩阵的形式进行存储,若给定文本所有单词组成的顶点集N,则该文本的邻接矩阵表示为 若两个词语i,j间存在箭头相连接则Adj[i,j]=1或者Adj[j,i]=1。根据Kipf假设边集合包含一个自循环Adj=Adj+I,即对任意顶点v来说Adj[v,v]=1,其中,I表示单位矩阵。
[0214] 3.5图卷积层
[0215] 图卷积层的任务是根据嵌入了特征向量的依赖树,利用图卷积网络生成给定文本的情感特征表示。
[0216] 对于一个图G(V,E),输入矩阵X是一个N×D的矩阵,N表示节点数,D表示输入的特征数,矩阵内的值为每个节点的特征,同时有图的邻接矩阵A。输出一个N×F的特征矩阵Z,表示学得的每个节点的特征表示,其中,N表示节点数,F是表示的维度(在分类问题中,F代表想要得到的类别个数)。对应本发明专利DTGCN模型来说,输入矩阵X是从Bi‑GRU层训练得到的每条文本的特征矩阵,邻接矩阵A为从语法层得到的句法依赖树的邻接矩阵Adj,特征矩阵Z是经过图卷积提取的文本的特征。
[0217] 式(7)为图卷积的初始状态,图卷积的单层前向传播的形式如式(8)所示,其中每一个神经网络层可以写成式(9)这样一个非线性函数。
[0218] H(0)=X   (7)
[0219] 其中,X表示图卷积模型的输入矩阵;H(0)表示图卷积模型第0层的隐藏状态。
[0220]
[0221] 其中,RELU()表示激活函数;表示依赖树的度矩阵;A表示从语法层得到的句法(l) (l)依赖树的邻接矩阵;H 表示表示图卷积模型第l层的隐藏状态;W 表示表示图卷积模型第(l+1)
l层的权重;f()表示计算图卷积模型隐藏状态的函数;H 表示表示图卷积模型第l+1层的隐藏状态。
[0222] H(l+1)=f(H(l),A)   (9)
[0223] 3.6输出层
[0224] 3.6.1MaxPooling(最大池化)
[0225] 池化处理也可称为降采样(Sub‑sampling),仅缩小矩阵的大小,不改变三维张量的深度,池化层减少全连接层的节点个数,也可以通过降低整个神经网络的参数量缓解过拟合风险。本发明专利使用最大池,对图卷积神经网络输出抽取若干特征值,只取其中得分最大的值作为Pooling层保留值,其他特征值全部丢弃。
[0226] 3.6.2Softmax
[0227] 利用Softmax分类器构造每个情绪标记的条件概率分布,并输出微博文本的最终情感标签,输出的标签和情感的预测值的数学表达式如式(10)和式(11)所示。
[0228] yj=softmax(wHj+b)   (10)
[0229] 其中,softmax()表示深度学习中的激活函数;w表示训练学习到的权重;Hj表示图卷积层中第j个句子的输出;b表示训练学习到的偏置;yj表示第j个句子输出的标签。
[0230]
[0231] 其中,J表示输入句子的总个数;pj表示第j个句子情感的最终预测值;yj表示第j个句子输出的标签。式(11)也可以写成 e表示自然底数。根据最终预测值pj判断其句子的情感极性:若pj等于预设第一情感值,则第j个句子为消极情感;
[0232] 若pj等于预设第二情感值,则第j个句子为中立情感;
[0233] 若pj等于预设第三情感值,则第j个句子为积极情感。其预设第一情感值、预设第二情感值、预设第三情感值可以分别对应0,1,2;也可以是‑1,0,1;根据实际情况进行设置。
[0234] 3.6.3L2 regularization
[0235] 泛化能力是指对训练数据以外数据做出准确预测的能力,为了增加DTGCN模型的泛化能力,本发明专利在损失函数中加入一个约束项L2范式。
[0236]
[0237] 其中,J表示输入句子的总个数;Yj表示j类情感的真实值;pj表示第j个句子情感的最终预测值;λ表示L2正则化系数;θ表示表示所有可训练参数;||||表示范数;Loss表示模型的损失值; 为DTGCN模型的初始损失函数。
[0238] 4实验结果与分析
[0239] 本发明专利实验环境为Ubuntu16.04LTS操作系统,CPU为Corei5‑8300H,64G内存,2TB硬盘,GPU是Nvidia GeForce GTX 1060,实验基于深度学习框架Pytorch上实现,实验所用开发语言为Python。
[0240] 4.1数据集
[0241] 为验证提出的DTGCN模型的有效性,本发明专利爬取99300条有效微博数据,并将其进行标注分为正面、负面和中立3类,训练集和测试集按照8:2比例进行划分,分别用于模型训练和模型测试。数据集中情感极性的具体分布如表2所示。实验中的数据情感类别用one‑hot向量进行表示,如Positive的one‑hot为[1.0,0.0,0.0]。
[0242] 表2数据集
[0243]  Positive Neutral Negative
Train 20001 46764 12675
Test 5371 10265 4224
[0244] 4.2Performance Measure
[0245] 混淆矩阵也称误差矩阵,是表示精度评价的一种标准格式,矩阵每一列代表预测值,每一行代表的是实际的类别。经典混淆矩阵如表3所示。
[0246] 表3Confusion Matrix
[0247]
[0248] 对于DTGCN的评估采用准确率Accuracy(Acc)、精确率P和宏平均F1值(Macro_F1),微平均F1值(Micro_F1)等评价指标,其中Macro_F1值是指先在混淆矩阵上分别计算出精确率和召回率,再计算平均值,Micro_F1先将各混淆矩阵的对应元素进行平均,得到TP、FP、TN、FN的平均值,再基于这些平均值计算查全率和查准率。对单个类别,设TP是正确预测的样本,FP是其他类别被判定为当前类别的样本,FN是当前类别被错误判定为其他类别的样本,则精确率P、召回率(Recall)和F1值计算公式为:
[0249]
[0250] 其中,TP表示正确预测的样本;FN表示当前类别被错误判定为其他类别的样本;P表示精确率。
[0251]
[0252] 其中,TP表示正确预测的样本;FP表示其他类别被判定为当前类别的样本;Recall表示召回率。
[0253]
[0254] 其中,P表示精确率;Recall表示召回率;F1表示精确率和召回率的调和均值;
[0255] 准确率Acc、Macro_F1和Micro_F1分别为:
[0256]
[0257] 其中,m表示样本的类别;TPi表示第i类样本正确预测的样本数;FPi表示其他类别被判定为i类别的样本数;FNi表示当前i类别被错误判定为其他类别的样本数;Acc表示准确率。
[0258]
[0259] 其中,m表示表示样本的类别;F1i表示当前i类别的F1值;Macro_F1表示宏平均F1值。
[0260]
[0261] 其中,m表示表示样本的类别;TPi表示第i类样本正确预测的样本数;FPi表示其他类别被判定为i类别的样本数;Micro_R表示样本的微平均召回率。
[0262]
[0263] 其中,m表示表示样本的类别;TPi表示第i类样本正确预测的样本数;FNi表示当前i类别被错误判定为其他类别的样本数;Micro_P表示样本的微平均精确率。
[0264]
[0265] 其中,Micro_P表示样本的微平均精确率;Micro_R表示样本的微平均召回率;Micro_F1表示微平均F1值。
[0266] 4.3超参数设置
[0267] 通常深度学习算法需要通过优化(模型调整)获取参数的最优值或改变所选模型数据的预处理来提高模型达到最优验证精度,迭代过程调整和评估训练模型的性能。这通常需要经过反复的实验从而改变模型的超参数,或者是包含/排除特定的预处理步骤。然后,对验证集合的性能进行评估,根据实验的准确率、损失率进行调整,直到参数获得最高的验证性能。经过多次迭代,实验设置的超参数如表4所示。
[0268] 表4参数设置
[0269] Parameters ValueEmbedding size 300
Bi‑GRU Hidden neurons 180
Bi‑GRU Hidden layers 2
GCN Network size [360,2]
GCN Activation Function Relu
Learning rate 0.001
Optimizer Adam
[0270] 由于模型学习的参数较多,容易过度拟合,因此本发明专利为了解决过拟合的问题,在输入层中增加一个dropout层,即按照给定概率随机选择要丢弃的节点,在正向传播的过程中,这些被忽略的节点对下游节点的贡献效果暂时消失,在反向传播中,这些节点也不会有任何权值的更新。为了找到适合模型的dropout数值,在数据集上进行了实验,实验结果如图6所示。
[0271] 从图6(a)~图6(d)可以看出,当dropout的值为0.7时,红色线条的准确率上升趋势较快,但在5次迭代后数值增长缓慢且波动较大,不能取得模型的最佳结果;当dropout的值为0.3时,在前期的数值上升趋势较慢,虽粉色线条的波动较为平稳,却未取得模型评价指标的最佳值;当dropout的值为0.5时,相较于其他线条,在训练期间蓝色线条的波动幅度相对较小,且蓝色线条能取得相对其他线条模型更高的指标平均值,即模型的最佳性能。因而本发明专利实验dropout的丢失率设为0.5。
[0272] 4.4DTGRU模型表现
[0273] 实验应用数据清理的预处理步骤整理数据集,然后模型加载处理数据,经过模型训练每个句子级别分配一个情感标签(正/负/中立)。模型性能是根据准确率(Acc)、精确率P、召回率(Recall)和宏平均F1值(Macro_F1)指标进行评估,如表5所示。
[0274] 表5模型评估指标
[0275]Acc P Recall Macro_F1 Micro_F1
90.51 90.75 90.34 90.47 90.24
[0276] 具体数值图像如图7所示:
[0277] 从表5及图7可看出,模型能够取得较高的准确率及宏平均值Macro_F1,证明了本发明专利模型DTGRU能够较好的提取中文短文本的情感特征,能够更准确的分析出社交网络中网民所表达的情感。
[0278] 4.5不同模型对比分析
[0279] 为了更好的验证提出的DTGCN模型的有效性,本发明专利选取了几种广泛使用的情绪分类算法作为基线,包括传统的深度学习方法和最先进的神经网络结构,模型结果如表6所示。
[0280] 模型一:LSTM,它只使用单层LSTM网络对句子进行建模。所有隐藏状态的平均值被视为最终句子表示。
[0281] 模型二:CNN,卷积神经网络包含卷积计算且具有深度结构的前馈神经网络,也是NLP任务中经典的模型。
[0282] 模型三:CNN+LSTM,此结构与本发明专利模型类似,但使用LSTM代替GRU提取文本特征,用CNN代替GCN来提取综合特征。
[0283] 模型四:TextCNN,CNN时通常会认为是用于计算机视觉方向的工作,Yoon Kim针对CNN的输入层做了一些变形,提出了文本分类模型TextCNN来处理NLP问题。
[0284] 模型五:Bi‑GRU+GCN,该模型不引入中文短文本的句法信息,直接采用Bi‑GRU对建模,将文本特征输入GCN从而实现情感分析。
[0285] 表6中按照每个标签类别的模型性能是根据准确率(Acc)、宏平均F1值(Macro_F1)、精确率P和召回率(Recall)进行比较。由表6可知,基于句法的图卷积神经网络(DTGCN)模型在各标签的情感分类中表现良好,在宏平均Macro_F1上DTGCN模型表现优于其他对比模型3.71%。模型一及模型二的实验表明,单纯的一种神经模型(如实验中的LSTM、CNN),因其自身网络结果的局限性,不能较好的学习文本的情感特征,所以若仅通过调节网络参数难以提高情感分类的准确率。模型三的实验是在CNN模型的基础上加入了LSTM模型,输入LSTM进行语义特征提取,将LSTM的输出作为CNN的输入,进行进一步的特征提取。最后得到分类结果。实验结果表明相对于模型一、模型二来说虽有所提高,但在其他模型结果中,模型三的准确率还是偏低。模型六的Bi‑GRU+GCN模型是DTGCN模型的缩减版,相比较而言,实验六中的模型缺少了输入样本的句法信息,即GCN中的邻接矩阵中所有元素均赋值为1,通过实验验证所提出的DTGCN模型准确度比Bi‑GRU+GCN高4.45%,从而凸显出句法信息在情感分类中的重要性。在DTGCN模型中“中立”的正确率及宏平均Macro_F1最高,分别为91.21%和91.22%,数据的不平衡性是导致这个结果的一部分原因,由于中立的样本数相对较多,中立样本经过训练所获取的特征更加丰富,因而具有较高的准确率和精密度。
[0286] 表6极性分类结果的比较
[0287]
[0288]
[0289] 本发明专利首先通过爬取微博数据建立了99200个大规模的中文情感分析语料库用于社交网络中中文短文本的情感分析;其次,本发明专利将高效的双层门控神经网络与图卷积神经网络相结合,构建了DTGCN模型,在数据集上DTGCN模型取得了90.51%的准确率,召回率是90.34%。这一结果与其他最先进的深度学习技术LSTM和CNN相比均有较好的提升,这是因为在以往的研究中,类似Bi‑LSTM的模型仅是成功地捕捉到了上下文信息,而本发明专利将GCN在句法依赖树上执行卷积来优化Bi‑GRU嵌入,获取句子的结构和上下文信息。因而在处理相同问题的时DTGCN模型所得的效果要比更复杂和最新的模型好;最后,本发明专利提出的DTGCN模型不仅可以处理中文文本的情感分析,若获得相应的语言语料库且在数据集中加入适当的标签,就能较好地分析其他语言(如英语等)的情感极性。这可以为社交网络平台中的短文本提供更细致、更深入的情感分析。
[0290] 句子的属性情感分类是近年自然语言处理领域的一个研究热点。但对中文文本情绪分类的研究与英文文档相比相形见绌。本发明专利针对目前相关研究中仅考虑属性的上下文信息未结合句法依赖树这一现象,提出一种基于句法的图卷积情感分类模型DTGCN,为社交网络中中文短文本的情感分析研究给出一个新的方向。最后,为验证DTGCN模型的有效性,在数据集上进行实验,其准确率和Macro_F1分别为90.51%和90.47%,且在多个基准模型实验进行对比时,DTGCN的准确率及Macro_F1分别超出基准模型4.45%和3.71%。实验结果表明了DTGCN能够通过同时利用句法信息和长距离单词依赖性,获取中文样本的情感特征,提高了模型的整体情感分类性能。
[0291] 尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

附图说明

[0139] 本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
[0140] 图1是本发明机器学习分类器示意图。
[0141] 图2是本发明GRU内部结构示意图。
[0142] 图3是本发明情感分类DTGCN模型示意图。
[0143] 图4是本发明句子长度分布示意图。
[0144] 图5是本发明BiGRU内部结构图示意图。
[0145] 图6是本发明dropout对模型结果的影响示意图。
[0146] 图7是本发明情感分类DTGCN模型表现示意图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号