首页 > 专利 > 之江实验室 > 一种面向深度神经网络可解释性的可视分析系统专利详情

一种面向深度神经网络可解释性的可视分析系统   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2021-01-29
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2021-06-18
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-09-02
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2041-01-29
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN202110127717.2 申请日 2021-01-29
公开/公告号 CN112884021B 公开/公告日 2022-09-02
授权日 2022-09-02 预估到期日 2041-01-29
申请年 2021年 公开/公告年 2022年
缴费截止日
分类号 G06V10/77G06V10/764G06V10/82G06K9/62G06N3/04G06N3/08 主分类号 G06V10/77
是否联合申请 联合申请 文献类型号 B
独权数量 1 从权数量 7
权利要求数量 8 非专利引证数量 1
引用专利数量 3 被引证专利数量 0
非专利引证 1、2018.04.03金遥力等.复杂背景下发型轮廓的自动提取方法《.系统仿真学报》.2015,第27卷(第10期),杨龙等.BP 算法的可视化研究与 BP 智能算法《.成都理工学院学报》.1998,(第S1期),Stegmayer G et al.Neural NetworkModel for Integration and Visualizationof Introgressed Genome and Metabolite. 《IEEE》.2013,;
引用专利 US9934462B、US2018288086A、US9934462B 被引证专利
专利权维持 1 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 之江实验室,杭州电子科技大学 当前专利权人 之江实验室,杭州电子科技大学
发明人 单海军、俞再亮、徐岗、吴向阳、刘真、李勇杰、杨凯兵、王丹丹、马书豪、姜子敬、陈思强、渠冲冲、朱威特、徐懂事、高炜哲 第一发明人 单海军
地址 浙江省杭州市余杭区文一西路1818号人工智能小镇10号楼 邮编 310023
申请人数量 2 发明人数量 15
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州浙科专利事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
杨小凡
摘要
本发明公开了一种面向深度神经网络可解释性的可视分析系统,包括:深度学习模型结构和计算过程的解释性可视化模块,揭示深度学习模型内部的网络结构和数据流的逐步计算流程;训练过程数据流的解释性可视化模块,揭示整个训练过程中数据流的统计信息;神经网络特征提取功能的解释性可视化模块,将神经元权重或神经元输出以可视化方式展示给用户,以解释各层神经元的特征提取能力,通过对比可视化方式,发现模型在不同时间点、不同参数等情况下的表现差异;数据异常值的解释性可视化模块,帮助用户发现数据中的异常和训练中模型参数的异常,提示用户及时暂停和修改模型参数;用户定制功能可视化模块,支持多种可视化模块在同一个页面中进行展示。
  • 摘要附图
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图1
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图2
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图3
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图4a
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图4b
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图4c
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图4d
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图4e
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图4f
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图4g
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图5a
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图5b
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图6
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图7a
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图7b
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图7c
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图8a
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图8b
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图8c
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图8d
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图8e
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图9
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图10
    一种面向深度神经网络可解释性的可视分析系统
  • 说明书附图:图11
    一种面向深度神经网络可解释性的可视分析系统
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-09-02 授权
2 2021-06-18 实质审查的生效 IPC(主分类): G06K 9/62 专利申请号: 202110127717.2 申请日: 2021.01.29
3 2021-06-01 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种面向深度神经网络可解释性的可视分析系统,包括:深度学习模型结构和计算过程的解释性可视化模块、训练过程数据流的解释性可视化模块、神经网络特征提取功能的解释性可视化模块、数据异常值的解释性可视化模块、用户定制功能可视化模块,其特征在于:
所述深度学习模型结构和计算过程的解释性可视化模块,用于揭示深度学习模型内部的网络结构和数据流的逐步计算流程;采用节点链接图方式可视化深度学习模型的网络结构,进行优化求解布局方式;以不同形状不同颜色的节点表示不同类型的神经元层和操作;
在节点和连边上叠加交互热点,用户可以通过点击节点和连边获得它们的结构信息以及在其上的数据流信息;通过显示节点,隐藏节点,展开节点,收缩节点和节点过滤操作,支持用户对布局结果进行手工微调,以展示网络结构;节点与边交替迭代布局优化的过程如下:
a.根据网络结构生成节点集合V,边集合E,每个节点包括其宽度w和高度h信息,每条边包含若干个转弯点,用于改变连线方向,优化求取每个节点的中心位置Pi和每条边三个转折点位置Qij(j=1,2,3);
b.以数据流的流向对节点进行拓扑排序,根据节点的展开层次分配节点的宽度和高度,根据数据给节点分配初始位置;
c.节点位置优化:建立优化公式 其中
第一项f1(Pi)描述了节点i和与其有边相连的节点间的先后关系变化的惩罚,即节点i和与其相连节点在布局后的先后顺序与它们在网络结构的逻辑顺序相反,则f1(Pi)取大的惩罚;
f2(Pi)使交互前后布局变化最小,即节点的位置变化较小;f3(Pi)避免节点重叠,当节点i与其他节点有重叠时,会产生较大的惩罚值;f4(Pi)惩罚节点i与现有的线出现相交,与越多的线相交,惩罚越大;
d .连线布 局优化 :对节点间的 连线优化折点位置 ,建立优化公式 :
第一项g1(Qij)用于使边i的总长度减小;第二项
g2(Qij)用于减少边与c步调整后的节点相交;第三项g3(Qij)使得边的转折角度最小;
e.对步骤c和d两步进行交替迭代优化,直至节点和线的变动达到最小阈值范围;
所述训练过程数据流的解释性可视化模块,用于揭示整个训练过程中数据流的统计信息;
所述神经网络特征提取功能的解释性可视化模块,将神经元权重或神经元输出以可视化方式展示给用户,以解释各层神经元的特征提取能力,并通过对比可视化方式,发现模型在不同时间点、不同参数情况下的表现差异;
所述数据异常值的解释性可视化模块,帮助用户发现数据中的异常和训练中模型参数的异常,提示用户及时暂停和修改模型参数;
所述用户定制功能可视化模块,支持多种可视化模块在同一个页面中进行展示。

2.如权利要求1所述的一种面向深度神经网络可解释性的可视分析系统,其特征在于所述训练过程数据流解释性可视化模块,其中的标量可视化模块展示整个模型的训练结果统计信息,包括标量值随时间变化的过程,将波动频繁的数据使用一个滑动条控制的平滑系数将标量展示平滑,展示出标量显示的趋势;展示各个中间层的统计信息,帮助用户定位到性能不满足需求的神经元中间层;神经元间的连接边上的值,包括权重、偏置值以及他们的梯度值。

3.如权利要求1所述的一种面向深度神经网络可解释性的可视分析系统,其特征在于所述神经网络特征提取功能的解释性可视化模块,将各层神经元激活值数据合并成高维数据,降低数据的维度,并通过散点图的形式展现了数据中的特征;将不同样本的输出值降维结果投影到二维平面上,形成不同的样本点,可以快速获取和对比各层神经元对样本集的分类效果,从而发现各层神经元的特征提取功能;发现被错误分类的样本;直方图用于表示神经元的权重分布;直方图中定制数据显示的比率,当展示直方图较为密集时减少数据的展示,得到简洁的结果。

4.如权利要求1所述的一种面向深度神经网络可解释性的可视分析系统,其特征在于所述神经网络特征提取功能的解释性可视化模型,通过对比可视化方式展示模型在不同时间点、不同参数、不同网络层、不同数据集时的功能对比,以动画的形式展示在不同时间点的统计数据和特征降维投影点,帮助用户分析训练的进展和模型性能随训练进程的改善情况;展示不同模型参数间的对比可视化,用户通过选取多种初始参数进行分别训练,系统以表格、曲线图的形式同时对这些参数下的训练过程和训练结果进行可视化,让用户进行详细对比和做出选择;对数据在不同网络层的输出结果进行对比,对比各网络层对特征抽取功能的不同;对模型在不同数据集上运行结果的可视化,用户通过选择不同训练集和验证集进行运算过程和运算结果对比,发现其中的差异,找出差异的原因。

5.如权利要求4所述的一种面向深度神经网络可解释性的可视分析系统,其特征在于利用contrastive PCA方法对数据进行对比学习,发现不同数据中的主要差异,所述contrastive PCA方法的过程如下:
a.将数据分成目标数据集和背景数据集:
b.给定对比参数α;
c.将数据进行中心化处理;
d.计算对应的经验协方差矩阵:
e.对如下矩阵进行特征值分解:
C=(CX‑αCY)
k
f.计算得到的子空间V∈R ,k为C的特征向量从大到小排序中,最大的k个特征值所对应的特征向量,在这些特征向量的维度上,目标和背景两个对比数据集具有最大的差异。

6.如权利要求1所述的一种面向深度神经网络可解释性的可视分析系统,其特征在于所述数据异常值的解释性可视化模块,采用颜色矩阵的方式将训练过程中的张量数据转化为二维矩阵并进行可视化,不同的颜色代表不同的数值;通过拖拽颜色条的上下线来控制颜色矩阵中可视的数值范围,方便用户观察特定范围内数据所在的位置,从而对应到实际的神经元上,判断神经元是否起了作用以及起了正向还是反向的作用;通过盒线图展示张量数据的统计信息,通过调节盒须图的上下四分位倍数,定制异常值的范围,同时,颜色矩阵中处于异常值范围的数据也会被高亮显示。

7.如权利要求6所述的一种面向深度神经网络可解释性的可视分析系统,其特征在于将多维矩阵展开成为二维矩阵,通过颜色矩阵查看其分布特征,过程如下:
a.输入多维数据(X,Y,Z),其中X,Y,Z表示维度数据,求X平分根后四舍五入的整数值;
b.得到多维数据展示为二维数据的图,大小为
所述数据异常值的解释性可视化模块的异常可视化模块,通过盒须图展示数据,盒须图的计算步骤如下:
a.计算上四分位数据Q1和下四分位数据Q3,所述Q1、Q3分别表示要统计的数据,在排序后的25%的数据和75%的数据;
b.计算IQR=Q3‑Q1;
c.计算上下限数值up=Q3+S1*IQR,down=Q1‑S2*IQR,其中S1和S2表示上四分位距倍数和下四分位距倍数,在上下限数据中的是正常数据,通过调整上下四分位倍数来查看颜色矩阵的分布。

8.如权利要求1所述的一种面向深度神经网络可解释性的可视分析系统,其特征在于所述用户定制功能可视化模块,让用户自主选择在同一个页面中展示的多个不同功能的可视化视图,通过多并列图的形式显示在不同时间点、不同空间位置、不同类型的数据,帮助用户联动对比分析训练的进展和模型性能随训练进程的改善情况,发现训练中的问题。
说明书

技术领域

[0001] 本发明涉及计算机数据可视化领域,尤其是涉及一种面向深度神经网络可解释性的可视分析系统。

背景技术

[0002] 深度学习取得的显著成功推动了人工智能技术的飞速发展,催生了众多人工智能应用。但随着需要处理的数据量的增大,深度学习模型的结构越来越复杂,参数越来越多。例如在卷积神经网络中,可能含有上百个网络中间层,每个网络中间层中可能含有上百万参数,甚至百度大脑的深度学习技术可以构建具有200亿个参数的深度神经网络。同时为了更好地处理大数据,当前深度学习系统的功能也越来越复杂,包括数据收集与预处理、特征抽取与选择、建模与学习和评估等。因而深度学习系统的设计与实现也呈现出越来越复杂的趋势,导致研究人员和用户很难理解这些复杂模型的内部工作机理而往往将其看作一个黑盒子。由于缺乏对这些模型工作机理的深刻理解,高效模型的开发常常是一个冗长又昂贵的反复实验过程。
[0003] 为了帮助深度学习专家快速设计出符合需求的模型,迫切需要一个透明和可解释的机制,帮助他们更好地理解和分析学习模型,从而快速地训练出符合需求的模型。世界各国都高度重视可解释深度学习模型的研究。美国国防高级研究计划局(DARPA)认为可解释人工智能将引领第三波人工智能浪潮。我国在《新一代人工智能发展规划》中也明确将“实现具备高可解释性、强泛化能力的人工智能”作为未来我国人工智能发展的重要突破口。
[0004] 交互可视化和可视分析技术是理解和分析学习模型的关键技术。交互可视分析方法充分利用人类对图形的辨识能力和分析能力,可以将复杂深度学习模型的工作机理转换成易于用户理解的直观展现形式,允许用户主动地进行探索和分析,并且会根据用户的交互及反馈,得到更好的结果,从而形成一个迭代渐进的分析过程,进而实现模型的改进。
[0005] 综上所述,如何有效地调试深度学习网络,实现深度学习模型的可视分析系统,以提升深度学习模型的易用性和可解释性,使得人工智能系统能够生成可解释的分析结果是当前亟待解决的问题。

发明内容

[0006] 为解决现有技术的不足,通过深度学习模型的可视分析,实现提升深度学习模型易用性和可解释性的目的,本发明采用如下的技术方案:
[0007] 一种面向深度神经网络可解释性的可视分析系统,包括:深度学习模型结构和计算过程的解释性可视化模块、训练过程数据流的解释性可视化模块、神经网络特征提取功能的解释性可视化模块、数据异常值的解释性可视化模块、用户定制功能可视化模块;
[0008] 所述深度学习模型结构和计算过程的解释性可视化模块,用于揭示深度学习模型内部的网络结构和数据流的逐步计算流程;
[0009] 所述训练过程数据流的解释性可视化模块,用于揭示整个训练过程中数据流的统计信息;
[0010] 所述神经网络特征提取功能的解释性可视化模块,将神经元权重或神经元输出以直观的可视化方式展示给用户,以解释各层神经元的特征提取能力,并通过对比可视化方式,发现模型在不同时间点、不同参数等情况下的表现差异;
[0011] 所述数据异常值的解释性可视化模块,帮助用户发现数据中的异常和训练中模型参数的异常,提示用户及时暂停和修改模型参数,提高模型训练效率、改善模型性能;
[0012] 所述用户定制功能可视化模块,支持用户自主选择多种可视化模块在同一个页面中进行展示,方便用户进行联动分析。
[0013] 进一步地,所述深度学习模型结构和计算过程的解释性可视化模块,采用节点链接图方式可视化深度学习模型的网络结构,以美观性、可读性和易交互性为目标进行优化求解布局方式;以不同形状不同颜色的节点表示不同类型的神经元层和操作;在节点和连边上叠加交互热点,用户可以通过点击节点和连边获得它们的结构信息以及在其上的数据流信息;通过显示节点,隐藏节点,展开节点,收缩节点和节点过滤操作,支持用户对布局结果进行手工微调,以展示更清晰的网络结构。
[0014] 进一步地,所述节点与边交替迭代布局优化的过程如下:
[0015] a.根据网络结构生成节点集合V,边集合E,每个节点包括其宽度w和高度h信息,每条边包含若干个转弯点,用于改变连线方向,优化求取每个节点的中心位置Pi和每条边三个转折点位置Qij(j=1,2,3);
[0016] b.以数据流的流向对节点进行拓扑排序,根据节点的展开层次分配节点的宽度和高度,根据数据给节点分配初始位置;
[0017] c.节点位置优化:建立优化公式其中第一项f1(Pi)描述了节点i和与其有边相连的节点间的先后关系变化的惩罚,即节点i和与其相连节点在布局后的先后顺序与它们在网络结构的逻辑顺序相反,则f1(Pi)取大的惩罚;f2(Pi)使交互前后布局变化最小,即节点的位置变化较小;f3(Pi)避免节点重叠,当节点i与其他节点有重叠时,会产生较大的惩罚值;f4(Pi)惩罚节点i与现有的线出现相交,与越多的线相交,惩罚越大;
[0018] d.连线布局优化:对节点间的连线优化折点位置,建立优化公式:第一项g1(Qij)用于使边i的总长度减小;第二项
g2(Qij)用于减少边与c步调整后的节点相交;第三项g3(Qij)使得边的转折角度最小;
[0019] e.对步骤c和d两步进行交替迭代优化,直至节点和线的变动达到最小阈值范围。
[0020] 进一步地,所述训练过程数据流解释性可视化模块,其中的标量可视化模块展示整个模型的训练结果统计信息,包括损失函数、精度、训练速度、学习率等标量值随时间变化的过程,将波动频繁的数据使用一个滑动条控制的平滑系数将标量展示平滑,展示出标量显示的趋势;展示各个中间层的平均响应、前置平均更新量等统计信息,帮助用户定位到性能不满足需求的神经元中间层;神经元间的连接边上的值,包括权重、偏置值以及他们的梯度值,通过观察这些数据可以发现训练过程瓶颈等信息。
[0021] 进一步地,所述神经网络特征提取功能的解释性可视化模型,将各层神经元激活值数据合并成高维数据,利用主成分分析(PCA)或者t‑分布领域嵌入算法(t‑SNE)等技术来降低数据的维度,并通过散点图的形式展现了数据中的特征;将不同样本的输出值降维结果投影到二维平面上,形成不同的样本点,可以快速获取和对比各层神经元对样本集的分类效果,从而发现各层神经元的特征提取功能;发现被错误分类的样本;直方图用于表示神经元的权重分布;直方图中定制数据显示的比率,当展示直方图较为密集时减少数据的展示,得到简洁的结果。
[0022] 进一步地,所述神经网络特征提取功能的解释性可视化模型,通过对比可视化方式展示模型在不同时间点、不同参数、不同网络层、不同数据集时的功能对比,以动画的形式展示在不同时间点的统计数据和特征降维投影点,帮助用户分析训练的进展和模型性能随训练进程的改善情况;展示不同模型参数间的对比可视化,用户通过选取多种初始参数进行分别训练,系统以表格、曲线图的形式同时对这些参数下的训练过程和训练结果进行可视化,让用户进行详细对比和做出选择;对数据在不同网络层的输出结果进行对比,对比各网络层对特征抽取功能的不同;对模型在不同数据集上运行结果的可视化,用户通过选择不同训练集和验证集进行运算过程和运算结果对比,发现其中的差异,找出差异的原因。
[0023] 进一步地,利用contrastive PCA方法对数据进行对比学习,发现不同数据中的主要差异,所述contrastive PCA方法的过程如下:
[0024] a.将数据分成目标数据集和背景数据集:
[0025] b.给定对比参数α;
[0026] c.将数据进行中心化处理;
[0027] d.计算对应的经验协方差矩阵:
[0028]
[0029] e.对如下矩阵进行特征值分解:
[0030] C=(CX‑αCY)
[0031] f.计算得到的子空间V∈Rk,k为C的特征向量从大到小排序中,最大的k个特征值所对应的特征向量,在这些特征向量的维度上,目标和背景两个对比数据集具有最大的差异。
[0032] 进一步地,所述数据异常值的解释性可视化模块,采用颜色矩阵的方式将训练过程中的权重、偏置等张量数据转化为二维矩阵并进行可视化,不同的颜色代表不同的数值;通过拖拽颜色条的上下线来控制颜色矩阵中可视的数值范围,方便用户观察特定范围内数据所在的位置,从而对应到实际的神经元上,判断神经元是否起了作用以及起了正向还是反向的作用;通过盒线图展示张量数据的统计信息,通过键盘输入或拖拽盒须图的上下线来调节盒须图的上下四分位倍数,定制NaN值、数据超过预设阈值等异常值的范围,同时,颜色矩阵中处于异常值范围的数据也会被高亮显示。
[0033] 进一步地,将多维矩阵展开成为二维矩阵,通过颜色矩阵查看其分布特征,过程如下:
[0034] a.输入多维数据(X,Y,Z),其中X,Y,Z表示维度数据,求X平分根后四舍五入的整数值;
[0035] b.得到多维数据展示为二维数据的图,大小为
[0036] 所述数据异常值的解释性可视化模块的异常可视化模块,通过盒须图展示数据,盒须图的计算步骤如下:
[0037] a.计算上四分位数据Q1和下四分位数据Q3,所述Q1、Q3分别表示要统计的数据,如张量,在排序后的25%的数据和75%的数据;
[0038] b.计算IQR=Q3‑Q1;
[0039] c.计算上下限数值up=Q3+S1*IQR,down=Q1‑S2*IQR,其中S1和S2表示上四分位距倍数和下四分位距倍数,在上下限数据中的是正常数据,通过调整上下四分位倍数来查看颜色矩阵的分布。
[0040] 进一步地,所述用户定制功能可视化模块,让用户自主选择在同一个页面中展示的多个不同功能的可视化视图,通过多并列图的形式显示在不同时间点、不同空间位置、不同类型的数据,帮助用户联动对比分析训练的进展和模型性能随训练进程的改善情况,发现训练中的问题,提高训练的效率。
[0041] 本发明的优势和有益效果在于:
[0042] 本发明基于之江实验室天枢人工智能开源开放平台,实现面向深度神经网络可解释性的可视分析系统,提升了深度学习模型的易用性和可解释性,从而使得普通用户也能开发深度学习系统,使得人工智能系统能够生成可解释的分析结果。

实施方案

[0067] 以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
[0068] 本发明的核心是提供一种面向深度神经网络可解释性的可视分析系统。基于之江实验室天枢人工智能开源开放平台,实现深度学习模型的可视分析系统,提升了深度学习模型的易用性和可解释性,从而使得普通用户也能开发深度学习系统,使得人工智能系统能够生成可解释的分析结果。
[0069] 为了更进一步对本发明做出详细说明,下面结合具体实例并参照附图。
[0070] 如图1所示,一种面向深度神经网络可解释性的可视分析系统,包括:深度学习模型结构和计算过程的解释性可视化、对训练过程数据流的解释性可视化、对神经网络特征提取功能的解释性可视化、对数据异常值的解释性可视化、用户定制功能可视化。
[0071] 如图2所示,一种面向深度神经网络可解释性的可视分析方法,包括如下步骤:
[0072] 1、专家用户在代码中将一些深度学习数据输入到深度学习的交互可视化与可视分析系统。
[0073] 2、训练完成后,专家用户进入到深度学习的交互可视化与可视分析系统,进行训练结果的查看,本系统方便专家用户对训练结果进行详细的探查,然后依据此系统进行模型的迭代。
[0074] 如图3所示,系统的后端架构包括:
[0075] 1、日志解析服务,对深度学习产生的日志信息进行解析。
[0076] 2、HTTP服务,对前端给出的请求进行解析,传递数据。
[0077] 3、Redis服务,对用户的状态进行检测。
[0078] 以mnist数据集的使用作为具体实例进一步说明:
[0079] 步骤1、在mnist训练生成的日志根目录下启动交互可视化与可视分析系统。
[0080] 步骤2、在浏览器端输入目标地址。
[0081] 步骤3、点击模型结构可视化模块,进行模型网络的查看。操作步骤如下:
[0082] a.鼠标双击sequential节点,展开此节点的子网络,展开前的网络如图4a所示,展开后的网络如图4b所示。
[0083] b.鼠标选中图4b中的dropout节点可以进行节点的隐藏,隐藏前网络如图4b所示,隐藏后的节点如图4c所示。
[0084] c.双击右侧栏目的删除节点可以进行网络的还原,如图4d所示。
[0085] d.隐藏节点后可以进行重新布局,更清晰的展现整个网络,如图4e所示,为重新布局的网络图。
[0086] e.单击节点可以在右侧的数据信息栏看到相关节点的信息,如图4f所示。
[0087] f.可以在右侧的条件过滤功能窗口使用各种逻辑条件对节点的入度出度进行筛选,如图4g所示,筛选的是将所有的入度大于等于4的节点隐藏。
[0088] 此模块可以让用户通过简单的操作,便可直观得理解深度学习模型的架构和工作机理。
[0089] 步骤4、点击标量可视化模块,进行标量数据的查看。操作步骤如下:
[0090] a.可以看到mnist的loss函数值是不断下降的趋向于收敛。如图5a所示。
[0091] b.可以将自己想看的两个数据对比放在一起进行展示,如图5b所示,将summaries/max和summaries/mean值进行对比展示。
[0092] 此模块展示了整个模型的训练结果统计信息,同时也可以进行对比可视化展示分析,用户通过观察标量的信息可以发现训练过程的瓶颈。
[0093] 步骤5、点击媒体数据可视化模块,进行媒体数据查看。操作步骤如下:
[0094] a.可以查看输入模型的图像数据,手写体如图6所示,可以拖动下方的滑动条查看不同的step输入网络的数据。
[0095] 此模块展示了对训练数据集和验证数据集的运行结果的可视分析,可以帮助用户评估模型性能。
[0096] 步骤6、点击统计分析可视化模块,进行统计分析数据查看。操作步骤如下:
[0097] a.可以查看直方图中的网络中的参数分布趋势,进行3维的直方图可视化,如图7a所示。
[0098] b.分布图用于展示转换为标准正态分布下的数据分布,如图7b所示。
[0099] c.可以查看直方图的2维展示如图7c所示。
[0100] 此模块所展示的模块将神经元权重以直观的方式展示给用户,用户通过观察权重的分布可以发现训练过程瓶颈等信息。
[0101] 步骤7、点击降维分析可视化模块,进行媒体数据查看。
[0102] a.可以动态的查看训练的结果,如图8a所示,通过点击播放按钮查看。
[0103] b.可以使用t‑SNE展现数据的分布效果,t‑SNE可以展示更好的分布效果相较于cPCA,如图8a所示。
[0104] c.可以点击数据点查看里面的数据值,如图8a所示。
[0105] d.可以查看cPCA分类效果图,如图8b所示。
[0106] e.可以查看二维数据分布效果,如图8c所示。
[0107] f.可以查看4维‑8维的数据分布效果,如图8d所示,8维的平行坐标展示。可以查看概率密度分布图,如图8e所示。
[0108] 此模块可以让用户通过观察到被错分的样本,通过对这些错分的样本进行分析,用户可以改进模型的效果,也可以通过观察分类的效果判断模型是否训练完成。
[0109] 步骤8、点击超参分析可视化模块,进行超参分析查看。操作步骤如下:
[0110] a.如图9所示,展示并分析模型训练中使用到的超参数。
[0111] 此模块展示了不同模型参数间的对比可视化,用户通过选取多种初始参数进行分别训练,系统以表格、曲线图的形式同时对这些参数下的训练过程和训练结果进行可视化,让用户进行详细对比和做出选择。
[0112] 步骤9、点击异常可视化模块,进行异常可视化查看。操作步骤如下:
[0113] a.通过拖动盒须图的上下界可以查看异常数据的分布,异常数据会用紫色框在颜色矩阵中展示,如图10所示。
[0114] b.可以通过鼠标移动到颜色矩阵中,查看对应的数值,如图10所示。
[0115] c.可以在直方图中查看数据的分布。优化的直方图分布,防止中间过高导致边缘数据过小,如图10所示。
[0116] d.可以通过调整颜色矩阵旁边的颜色条查看数据的分布,如图10所示。
[0117] 此模块展示了采用颜色矩阵的方式将训练过程中的权重、偏置等张量数据转化为二维矩阵并进行可视化,不同的颜色代表不同的数值;通过拖拽颜色条的上下线来控制颜色矩阵中可视的数值范围,方便用户观察某一范围内数据所在的位置,从而对应到实际的神经元上,判断神经元是否起了作用以及起了正向还是反向的作用;通过盒线图展示张量数据的统计信息,可以通过键盘输入或是拖拽盒须图的上下线来调节盒须图的上下四分位倍数,定制NaN值、数据超过预设阈值等异常值的范围,同时,颜色矩阵中处于异常值范围的数据也会被高亮显示。
[0118] 步骤10、点击定制可视化模块,进行用户定制数据可视化查看。操作步骤如下:
[0119] a.可以将标量数据,媒体数据和统计分析数据集中查看,如图11所示。
[0120] 此模块展示了通过多并列图的形式显示在不同时间点的各统计数据,帮助用户分析训练的进展和模型性能随训练进程的改善情况。
[0121] 以上模块可以通过抽象概括的方式归于解释性可视化:
[0122] 深度学习模型结构和计算过程的解释性可视化,包括模型结构可视化模块;
[0123] 对训练过程数据流的解释性可视化,包括标量可视化模块、媒体数据可视化模块、统计分析可视化模块和超参分析可视化模块;
[0124] 对神经网络特征提取功能的解释性可视化,包括降维分析可视化模块和标量可视化模块;
[0125] 对数据异常值的解释性可视化,包括异常可视化模块;
[0126] 用户定制功能可视化,包括定制可视化模块。
[0127] 以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。

附图说明

[0043] 图1是本发明中系统的架构图。
[0044] 图2位本发明中系统的交互流程图。
[0045] 图3为本发明中系统的后端架构图。
[0046] 图4a为本发明中系统的模型结构中sequential节点展开前的展示图。
[0047] 图4b为本发明中系统的模型结构中sequential节点展开后的展示图。
[0048] 图4c为本发明中系统的模型结构中隐藏dropout节点后的展示图。
[0049] 图4d为本发明中系统的模型结构中对网络节点还原的展示图。
[0050] 图4e为本发明中系统的模型结构中重新布局的展示图。
[0051] 图4f为本发明中系统的模型结构中节点信息的展示图。
[0052] 图4g为本发明中系统的模型结构中节点入度出度筛选的展示图。
[0053] 图5a为本发明中系统的标量数据中loss函数值展示图。
[0054] 图5b为本发明中系统的标量数据对比展示图。
[0055] 图6为本发明中系统的媒体数据展示图。
[0056] 图7a为本发明中系统的统计分析中直方图的三维展示图。
[0057] 图7b为本发明中系统的统计分析中分布图的展示图
[0058] 图7c为本发明中系统的统计分析中直方图的二维展示图。
[0059] 图8a为本发明中系统的降维分析中动态结果查看的展示图。
[0060] 图8b为本发明中系统的降维分析中分类效果展示图。
[0061] 图8c为本发明中系统的降维分析中二维数据分布效果展示图。
[0062] 图8d为本发明中系统的降维分析中四至八维数据分布效果展示图。
[0063] 图8e为本发明中系统的降维分析中概率密度分布展示图。
[0064] 图9为本发明中系统的超参分析展示图。
[0065] 图10为本发明中系统的异常检测展示图。
[0066] 图11为本发明中系统的用户定制展示图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号