首页 > 专利 > 杭州电子科技大学 > 一种面向大规模安全监控的参数通信方法专利详情

一种面向大规模安全监控的参数通信方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-11-29
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2020-05-05
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-03-22
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-11-29
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201911197625.0 申请日 2019-11-29
公开/公告号 CN110990155B 公开/公告日 2022-03-22
授权日 2022-03-22 预估到期日 2039-11-29
申请年 2019年 公开/公告年 2022年
缴费截止日
分类号 G06F9/50G06F9/52G06F9/54G06N20/00 主分类号 G06F9/50
是否联合申请 联合申请 文献类型号 B
独权数量 1 从权数量 0
权利要求数量 1 非专利引证数量 1
引用专利数量 1 被引证专利数量 0
非专利引证 1、2015.09.24陈长吉.“适用于深度学习的数据预处理并行算法实现及性能优化”《.中国优秀硕士学位论文全文数据库 信息科技辑》.2019,(第05期),Luobin Yang“.High performance dataclustering: a comparative analysis ofperformance for GPU,RASC,MPI and OpenMPimplementations”《.Journal ofSupercomputing》.2014,第70卷(第1期),;
引用专利 US2015269225A 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学,杭州电子科技大学舟山同博海洋电子信息研究院有限公司,浙江曙光信息技术有限公司 当前专利权人 杭州电子科技大学,杭州电子科技大学舟山同博海洋电子信息研究院有限公司,浙江曙光信息技术有限公司
发明人 张纪林、阳瑞、袁俊峰、陈军相、万健、张俊聪、魏振国 第一发明人 张纪林
地址 浙江省杭州市下沙高教园区2号大街 邮编 310018
申请人数量 3 发明人数量 7
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
杭州奥创知识产权代理有限公司 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
王佳健
摘要
本发明公开了一种面向大规模安全监控的参数通信方法。本发明首先利用监控图片作为数据集,采用多节点集群组成参数服务器系统,其中一个节点作为参数服务器,其他节点作为计算节点。其次部署性能监控模型,参数服务器通过性能监控模块获取计算节点的性能参数。然后参数服务器以收集到的性能参数为依据,使用性能聚类算法计算出参数服务器下次同步计算节点的数量。最后计算节点根据同步标记选择全局模型或本地模型进入下一次迭代训练。本发明动态限制参数服务器的同步屏障规模,减少了同步通信开销,并且保证了模型训练的准确率;在计算节点间实现了有限异步计算,充分发挥了集群整体性能,实现集群动态负载均衡。
  • 摘要附图
    一种面向大规模安全监控的参数通信方法
  • 说明书附图:图1
    一种面向大规模安全监控的参数通信方法
  • 说明书附图:图2
    一种面向大规模安全监控的参数通信方法
  • 说明书附图:图3
    一种面向大规模安全监控的参数通信方法
  • 说明书附图:图4
    一种面向大规模安全监控的参数通信方法
  • 说明书附图:图5
    一种面向大规模安全监控的参数通信方法
  • 说明书附图:图6
    一种面向大规模安全监控的参数通信方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-03-22 授权
2 2020-05-05 实质审查的生效 IPC(主分类): G06F 9/50 专利申请号: 201911197625.0 申请日: 2019.11.29
3 2020-04-10 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种面向大规模安全监控的参数通信方法,其特征在于该方法包括如下步骤:
步骤1:利用监控图片作为数据集,采用多节点集群组成参数服务器系统,其中一个节点作为参数服务器,其他节点作为计算节点;
所述的参数服务器采用多线程的方式实现,线程按其功能分为三类:
通信线程:有多个,每个通信线程对应一个计算节点,用于维持参数服务器与计算节点之间的通信;
参数聚合线程,有一个,作为参数更新管理器,用于处理全局模型参数的更新;
性能监控线程,有一个,作为计算节点性能监控器,用于实时监控计算节点的性能动态变化;
步骤2:部署性能监控模块:在参数服务器和计算节点上实现基于MPI通信的性能监控线程,实现节点性能参数的实时获取;
步骤3:参数服务器通过性能监控模块获取计算节点的性能参数;
步骤4:参数服务器通过性能聚类算法计算出参数服务器下一次迭代参与全局同步的节点数,所述的性能聚类算法具体是:使用欧式距离度量性能相似度,将多个进程划分到2个聚类中,使得每个进程都属于离它最近的聚类中心对应的聚类;
步骤5:若计算节点参与了本次全局模型更新,则使用新的全局模型参数进入下一次迭代训练;否则,使用本地模型参数进入下一次迭代训练;
步骤6:重复步骤3至步骤5,直至模型收敛。
说明书

技术领域

[0001] 本发明属于分布式机器学习加速技术领域,具体是一种面向大规模安全监控的参数通信方法。

背景技术

[0002] 智慧城市是城市现代化和信息化发展的必然趋势。智慧城市在支持社会经济发展,创新经济发展模式,提高城市功能质量,保障和改善民生方面发挥着积极作用。安全监控作为城市大数据的重要基础资源,提供了大量的图像信息。随着互联网时代的发展与科技的进步,数据的量级已从TB级别转向PB量级,并且正向ZB量级转变,传统机器学习方法面临着海量数据的严峻挑战。将传统机器学习方法分布化,以适应日趋庞大的数据规模成为学术界及工业界研究的热点。
[0003] 本发明主要关注迭代收敛算法,这类算法是数值分析中从一个初始估计出发,寻找一系列近似解来解决问题的方法。迭代收敛算法的分布式实现通常遵循整体同步并行(Bulk Synchronous Parallel)方法,在此方法中,每个计算进程对前一次迭代生成的全局模型本地副本进行相同的迭代,每次迭代结束后,各计算进程进入同步屏障进行同步,这可能会显着降低这些算法的性能,因为每次迭代的时间始终由性能最差的计算进程决定。并且此问题随着并行化程度成正比:在计算进程数量的增加过程中,在任何给定迭代中至少有一个性能滞后者的概率也将增大。此外,导致性能滞后的潜在原因(例如硬件和网络变化)通常是不可预测的。
[0004] 面对整体同步并行方法存在的同步滞后问题,Dean等人提出了分布式机器学习异步迭代方案(Asynchronous Parallel),其中各计算进程进行全异步计算,各计算进程完成迭代后立即与参数服务器进行同步,极大地利用了每个计算节点的性能,但由于模型和更新参数变得不可控的延迟,导致模型收敛速度无法保证。其中计算进程先使用局部模型参数继续迭代,然后读取全局参数模型。该方案将机器学习算法的容错性无限放大,导致机器学习模型可能陷入局部最优解,并且不能保证其准确率。Ho等人针对这个问题提出了相应的方法—延迟同步并行方法(Stale Synchronous Parallel),其兼顾了整体同步和异步的特点:允许一些计算进程比其他计算进程多进行一定次数的迭代,全局同步前使用本地模型参数进行迭代。SSP在不完全消除计算节点性能滞后问题的情况下,放宽了迭代同步一致性条件和局部参数的全局一致性保证。虽然SSP使用局部模型参数提高了模型训练速度,但由于丢失了部分局部参数更新,将累积并行错误,降低了收敛速度。因此如何提高分布式机器学习模型训练的性能是一个迫切需要解决的问题。

发明内容

[0005] 本发明要解决的技术问题是:在处理大规模数据量的监控图片时,如何减小集群性能差异对分布式机器学习模型训练带来的同步等待问题,在保证一定准确率的前提下,解决滞后问题,提高模型训练的整体性能,最终加快图片识别的速度,并保证图片识别的准确率。
[0006] 一种面向大规模安全监控的参数通信方法——受限同步并行方法(Limited synchronous parallel model)。
[0007] 在基于迭代收敛算法的分布式机器学习模型训练中,各计算节点在达到停止条件前会不断重复进入下一次迭代训练。传统的分布式机器学习模型训练中,参数服务器会聚合所有计算节点的局部参数,并更新全局模型参数。本发明解决其技术问题采用的技术方案是:通过性能监控模块实现计算节点性能参数的实时获取,然后根据性能参数对参数服务器选择同步节点的数量进行自适应调整。该方法采用以下步骤实现:
[0008] 步骤1:使用本方法处理大规模监控图片的集群采用参数服务器系统。一个节点作为参数服务器,其他节点作为计算节点。
[0009] 步骤2:部署性能监控模型。在参数服务器和计算节点上部署性能监控模块,实现节点性能参数的实时获取。
[0010] 步骤3:参数服务器通过性能监控模块获取计算节点的性能参数。
[0011] 步骤4:参数服务器以收集到的性能参数为依据,使用性能聚类算法计算出参数服务器下次同步计算节点的数量,并发送本次迭代参与同步标记给计算节点,所述的性能聚类算法是使用欧式距离度量性能相似度,将n个进程划分到2个聚类中,使得每个进程都属于离它最近的均值(即聚类中心)对应的聚类。
[0012] 步骤5:计算节点根据同步标记选择全局模型或本地模型进入下一次迭代训练。
[0013] 步骤6:重复步骤3至步骤5,直至模型收敛。
[0014] 受限同步并行方法通过使参数服务器减少等待慢节点的时间,使快节点充分提高计算效率,从而间接性地平衡了集群的负载,提高了模型训练的性能。
[0015] 本发明的有益效果:在使用监控图片作为数据集,进行分布式机器学习模型训练时,基于BSP方法的分布式系统一直受限于同步等待滞后问题的影响,导致其在真实环境中浪费了大量的系统资源,整体性能十分低下。本发明通过使用受限同步并行方法对参数服务器每次同步的计算节点数量进行动态快速调整,有效得减少了各节点的同步等待时间,从而有效缓解了滞后问题,大大提高了模型训练的性能,提升了监控图片的识别效率。

实施方案

[0022] 下面结合附图和具体实施步骤对本发明做了进一步的说明:
[0023] 步骤1:采用多节点集群组成参数服务器系统,一个节点作为参数服务器,其他节点作为计算节点。
[0024] 如图1所示,本发明采用多线程的方式实现参数服务器,参数服务器上每个传输线程对应一个计算节点,用于维持参数服务器与计算节点之间的通信;同时,参数服务器上专门设置了一个线程作为参数更新管理器,用于处理全局模型参数的更新。
[0025] 步骤2:部署性能监控模块。在参数服务器和计算节点上实现基于MPI通信的性能监控线程,实现节点性能参数的实时获取。
[0026] 步骤3:参数服务器通过性能监控模块获取计算节点的性能参数。
[0027] 步骤4:参数服务器通过性能聚类算法计算出参数服务器下一次迭代参与全局同步的节点数。
[0028] 如图2所示,LSP方法在BSP方法的基础上,优化了其同步条件:在每次迭代中,参数服务器只需等待一部分计算节点完成迭代后便可开始更新全局模型,而不用等待剩下的慢节点,同时当参数服务器完成一定迭代次数后,将等待所有计算完成迭代后进行一次全局同步。上述机制避免了BSP方法在集群性能差异大的情况下,因迟迟无法达到同步条件使得等待时间过长,导致最终的训练时间大量增加。
[0029] 迭代时间与通信时间能反映分布式机器学习方法中训练速度与通信开销,因此,本发明将迭代时间与通信时间作为性能聚类算法的样本数据。对于有P个计算节点的集群集合,定义迭代时间和通信时间分别为xP和yP,性能数据集 其中性能聚类算法描述如下:
[0030]
[0031]
[0032] 性能聚类算法基于计算节点的计算时间和与参数服务器的通信时间,对参数服务器中每次迭代的同步节点数量动态调整为性能最优簇的规模,从而减少了参数服务器的同步等待时间,平衡了集群负载,提高了模型训练的性能。
[0033] 步骤5:若计算节点参与了本次全局模型更新,则使用新的全局模型参数进入下一次迭代训练;否则,使用本地模型参数进入下一次迭代训练
[0034] 步骤6:重复步骤3至步骤5,直至模型收敛。
[0035] 图3和图4展示了在集群性能相近时,不同计算方法的准确率和训练时间对比。由于BSP方法下的参数服务器在每次迭代计算时,都要等待所有计算进程完成迭代后再进行全局同步,因此BSP保证了模型训练的强一致性而准确率最高。但BSP方法的迭代计算时间取决于训练最慢的计算进程,这导致使用BSP方法训练将花费大量的时间。LSP、SSP都利用了机器学习算法的容错特性进行有限异步训练,缩短了参数服务器的同步等待时间,因此训练时间较BSP有大幅的降低。但由于SSP滥用了容错特性,在各计算节点性能相近的情况下,导致计算节点各自进行过多的局部迭代,容易陷入局部最优解。且随着计算进程的增加,局部迭代的次数也随之增多,全局模型参数更新的次数减少,导致准确率不断下降,模型无法满足使用需求。LSP实现了受限同步屏障,保证了全局模型的更新次数,避免了局部迭代后全局模型趋近于局部最优解,因而比SSP具有更高的准确率。
[0036] 图5展示了在集群性能差异较大时,不同计算方法的准确率对比。由于BSP清楚地分离计算阶段与通信阶段,使得在BSP方法下训练出的机器学习模型准确率不受计算节点性能波动影响。SSP随着节点性能差异增大,计算节点能更快地达到同步条件,避免了容错性的扩大,提升了训练模型的准确度。LSP因节点性能差异增大,减小了受限阈值,即进入受限同步屏障的进程数减少,使得LSP仍然保证了较高的准确率,并高于SSP。
[0037] 图6展示了在集群性能差异较大时,不同计算方法的训练时间对比。由于BSP的单次迭代时间受限于迭代时间最长的进程,使得BSP在计算节点出现性能波动出需要更多的时间进行迭代,严重影响了模型训练的效率。另外,由于LSP实现了受限同步屏障,并实现了计算节点的异步计算,减弱了同步阶段性能滞后进程导致的等待问题,使得LSP对因计算节点性能差异导致的整体性能滞后问题有着显著的优势。

附图说明

[0016] 图1是一个基于Caffe的分布式机器学习框架。
[0017] 图2是受限同步并行方法(LSP)的训练流程图。
[0018] 图3是在集群节点性能相近时,不同计算方法的准确率对比。
[0019] 图4是在集群节点性能相近时,不同计算方法的训练时间对比
[0020] 图5是在集群节点性能差异较大时,不同计算方法的准确率对比。
[0021] 图6是在集群节点性能差异较大时,不同计算方法的训练时间对比。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号