首页 > 专利 > 杭州电子科技大学 > 一种基于Sliced-Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法专利详情

一种基于Sliced-Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2019-12-27
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2020-06-12
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2022-07-26
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2039-12-27
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201911375406.7 申请日 2019-12-27
公开/公告号 CN111178427B 公开/公告日 2022-07-26
授权日 2022-07-26 预估到期日 2039-12-27
申请年 2019年 公开/公告年 2022年
缴费截止日
分类号 G06V10/762G06V10/77G06V10/74G06V10/82G06K9/62G06N3/04G06N3/08 主分类号 G06V10/762
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 1
权利要求数量 2 非专利引证数量 1
引用专利数量 0 被引证专利数量 0
非专利引证 1、CN 102722876 A,2012.10.10CN 110110670 A,2019.08.09CN 109086805 A,2018.12.25CN 109635946 A,2019.04.16CN 110414383 A,2019.11.05Ilya Tolstikhin.Wasserstein Auto-Encoders《.arXiv:1711.01558v4》.2019,全文.;
引用专利 被引证专利
专利权维持 3 专利申请国编码 CN
专利事件 事务标签 公开、实质审查、授权
申请人信息
申请人 第一申请人
专利权人 杭州电子科技大学 当前专利权人 杭州电子科技大学
发明人 郭春生、容培盛、陈华华、应娜 第一发明人 郭春生
地址 浙江省杭州市经济技术开发区白杨街道2号大街1158号 邮编 310018
申请人数量 1 发明人数量 4
申请人所在省 浙江省 申请人所在市 浙江省杭州市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
浙江千克知识产权代理有限公司 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
周希良
摘要
本发明公开了一种基于Sliced‑Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法,包括步骤:S11.构建基于Sliced‑Wasserstein距离的自编码网络模块;S12.构建聚类模块;S13.将所述构建的自编码网络模块和聚类模块进行联合,构建基于Sliced‑Wasserstein距离的自编码嵌入式聚类网络;S14.初始化构建后的自编码嵌入式聚类网络的聚类中心,将无标签的数据集输入到网络进行迭代训练,并对自编码嵌入式聚类网络进行处理,当所述处理后的自编码嵌入式聚类网络达到预设阈值时,完成最终的聚类。本发明在网络的迭代训练过程中,同时优化了自编码网络模块以及聚类模块,从而达到聚类完成的效果。
  • 摘要附图
    一种基于Sliced-Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法
  • 说明书附图:图1
    一种基于Sliced-Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法
  • 说明书附图:图2
    一种基于Sliced-Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法
  • 说明书附图:图3
    一种基于Sliced-Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2022-07-26 授权
2 2020-06-12 实质审查的生效 IPC(主分类): G06K 9/62 专利申请号: 201911375406.7 申请日: 2019.12.27
3 2020-05-19 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于Sliced‑Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法,其特征在于,包括步骤:
S
1.构建基于Sliced‑Wasserstein距离的自编码网络模块;本步骤中构建的自编码网络模块由编码器f(x;θf)和解码器g(z;θg)组成;
原始图像经过网络的编码器,在指定的特征空间中提取图像的低维特征向量z,再经过网络的解码器,得到重构的新图像;设数据x1,x2,...,xN∈X是原始图像的输入,z是自编码网络中编码器f(x;θf)输出的特征向量,而x′n是解码器g(z;θg)的输出重构图像,为了使网络重构后的图像保留更多原始图像的特征信息,利用均方损失、L1范数损失以及Sliced‑Wasserstein的近似距离来约束网络的重构和映射至潜在特征空间的性能,即
其中,μ表示输入数据的分布;η表示自编码网络重构后的数据分布,pz表示数据在指定特征空间中编码后的分布;qz表示预先定义的采样分布;λ表示一个超参数,用于鉴定损失函数的相对重要性;
d‑1 d d‑1
设S 是概率空间Ω中的单位球,对于一个向量vn∈S ,其中vn={v1,...,vN}代表选取的N个切片单元,(∏v)#η表示η的投影分布,Γ(η,μ)表示的是η和μ组合起来的所有可能联合分布的集合,自编码器模块的最终优化约束条件为:
S
2.构建聚类模块,包括构建聚类模块中的软分配、KL损失优化、软聚类损失优化;
构建聚类模块中的软分配:
假设质心为ρ1,ρ2,...,ρK,使用t分布作为核函数来测量嵌入点zi和质心ρj之间的相似性,具体为:
其中,ρj表示质心;zi表示嵌入点;zi=fθ(xi)∈Z对应于数据点xi∈X嵌入后的特征向量;Z表示数据提取特征后的低维空间;X表示数据的原始空间;α表示t分布的自由度;qij表示将样本i分配给聚类质心ρj的概率;自由度α=1;
构建聚类模块中的KL损失优化:
在辅助目标分布的帮助下,模型通过将软分配与辅助分布相匹配来进行训练;为此,将目标函数定义为软分配分布qi和辅助分布pi之间的KL‑divergence损失:
通过将qi提升到第二个幂然后按每个簇的频率进行归一化来定义辅助目标函数pi:
其中,fj=∑iqij表示软集群频率;qij通过嵌入式聚类网络由式(7)计算得到;通过对原始分布求平方并对其进行归一化,辅助分布pij强制赋值具有更严格的概率,即更接近0和1;
构建聚类模块中的软聚类损失优化:
软聚类需要最小化损失函数
其中,Ewkm表示软聚类最小损失;需要满足条件φi(k)>0; 在神经网络的
训练中,质心根据网络的迭代训练过程进行更新优化,对于软分配的计算,将公式设置为φi(k)=qij;
S
3.将所述构建的自编码网络模块和聚类模块进行联合,构建基于Sliced‑
Wasserstein距离的自编码嵌入式聚类网络;本步骤具体为:将构建的自编码网络模块和构建的聚类模块中的软分配、KL损失优化、软聚类损失优化进行联合到最终的网络中;结合式(6)和式(8)、式(10),得到最终的整个网络的损失函数为:
其中,α,β,γ表示超参数,用于协调网络各部分之间的权重;
S
4.初始化构建后的自编码嵌入式聚类网络的聚类中心,将无标签的数据集输入到网络进行迭代训练,并对自编码嵌入式聚类网络进行处理,当所述处理后的自编码嵌入式聚类网络达到预设阈值时,完成最终的聚类;本步骤具体为:搭建完嵌入式聚类网络的整体模块后,首先初始化网络的聚类中心,再将无标签的数据集输入到网络进行迭代的训练,微调超参数α,β,γ,网络根据最终的网络损失函数(11)自动优化嵌入式聚类网络,当达到迭代次数时,终止训练,从而完成最终聚类。

2.根据权利要求1所述的一种基于Sliced‑Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法,其特征在于,步骤S4中,初始化构建后的自编码嵌入式聚类网络的聚类中心采用Xavier Uniform方法初始化。
说明书

技术领域

[0001] 本发明涉及无监督深度学习聚类技术领域,尤其涉及一种基于  Sliced‑Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法。

背景技术

[0002] 聚类算法又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法,同时也是数据挖掘的一个重要算法。聚类(Cluster)分析是由若干模式(Pattern)组成的,通常,模式是一个度量(Measurement)的向量,或者是多维空间中的一个点。聚类分析以相似性为基础,在一个聚类中的模式之间比不在同一聚类中的模式之间具有更多的相似性。
[0003] 聚类算法已经从不同的角度进行了广泛的研究,流行的聚类方法的主要是K‑Means、Gaussian Mixture Models(GMM)和谱聚类。K‑Means、GMM 这些方法快速且适用于广泛的问题,也取得了成功,但是,这些框架仅限于线性嵌入,都在原始要素空间中进行聚类。而谱聚类是一种基于相似度的聚类或子空间聚类方法的代表性算法,然而基本上都始于建立亲和矩阵并将原始数据投影到线性子空间,最后在子空间完成聚类。但是,这些大多数现有的聚类方法受到现代应用程序生成数据的严峻挑战,这些数据通常具有高维度,噪声,异构和稀疏性。它们的距离度量限于原始数据空间,并且当输入维数很高时它们往往无效。得益于卷积神经网络算法的发展,深度自编码器在无监督领域中展现出了惊人的能力,因此,寻找一种合适的自编码方式进行图像的降维并同时完成聚类十分重要。

发明内容

[0004] 本发明的目的是针对现有技术的缺陷,提供了一种基于Sliced‑Wasserstein 距离的深度自编码进行图像降维并嵌入聚类的方法,在网络的迭代训练过程中,同时优化了自编码网络模块以及聚类模块,从而达到聚类完成的效果。
[0005] 为了实现以上目的,本发明采用以下技术方案:
[0006] 一种基于Sliced‑Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法,包括步骤:
[0007] S1.构建基于Sliced‑Wasserstein距离的自编码网络模块;
[0008] S2.构建聚类模块;
[0009] S3.将所述构建的自编码网络模块和聚类模块进行联合,构建基于 Sliced‑Wasserstein距离的自编码嵌入式聚类网络;
[0010] S4.初始化构建后的自编码嵌入式聚类网络的聚类中心,将无标签的数据集输入到网络进行迭代训练,并对自编码嵌入式聚类网络进行处理,当所述处理后的自编码嵌入式聚类网络达到预设阈值时,完成最终的聚类。
[0011] 进一步的,所述步骤S1中构建的自编码网络模块由编码器f(x;θf)和解码器g(z;θg)组成。
[0012] 进一步的,所述步骤S1还包括采用均方损失、L1范数损失、 Sliced‑Wasserstein的近似距离约束自编码网络的重构和映射至潜在特征空间的性能:
[0013]
[0014]
[0015]
[0016]
[0017]
[0018] 其中,μ表示输入数据的分布;η表示自编码网络重构后的数据分布,pz表示数据在指定特征空间中编码后的分布;qz表示预先定义的采样分布;λ表示一个超参数;
[0019] 若v∈Sd‑1,Sd‑1是概率空间Ωd中的单位球,其中v={v1,...,vN}代表选取的N个切片单元,(∏v)#η表示η的投影分布,Γ(η,μ)表示的是η和μ组合的所有联合分布的集合,自编码网络模块的优化约束条件为:
[0020]
[0021] 进一步的,所述步骤S2中构建聚类模块包括构建聚类模块中的软分配、 KL损失优化、软聚类损失优化。
[0022] 进一步的,所述构建聚类模块中的软分配具体为:
[0023]
[0024] 其中,ρj表示质心;zi表示嵌入点;zi=fθ(xi)∈Z对应于数据点xi∈X嵌入后的特征向量;Z表示数据提取特征后的低维空间;X表示数据的原始空间;α表示t分布的自由度;qij表示将样本i分配给聚类质心ρj的概率。
[0025] 进一步的,所述构建聚类模块中的KL损失优化具体为将目标函数定义为软分配分布qi和辅助分布pi之间的KL‑divergence损失:
[0026]
[0027]
[0028] 其中,fj=∑iqij表示软集群频率。
[0029] 进一步的,所述构建聚类模块中的软聚类损失优化具体为:
[0030]
[0031] 其中,Ewkm表示软聚类最小损失;φi(k)>0,φi(k)=qij; β>0。
[0032] 进一步的,所述步骤S3具体为将构建的自编码网络模块和构建的聚类模块中的软分配、KL损失优化、软聚类损失优化进行联合,得到整个自编码嵌入式聚类网络的损失函数为:
[0033]
[0034] 其中,α,β,γ表示超参数。
[0035] 进一步的,所述步骤S4中初始化构建后的自编码嵌入式聚类网络的聚类中心是通过Xavier Uniform方法初始化的。
[0036] 进一步的,所述步骤S4中还包括调整超参数α,β,γ,并根据整个自编码嵌入式聚类网络的损失函数自动处理嵌入式聚类网络。
[0037] 与现有技术相比,本发明利用基于Sliced‑Wasserstein距离的自编码网络框架,并在此基础上引入了均方误差损失、L1损失、软分配聚类损失,以及KL 损失进行联合优化聚类,在网络的迭代训练过程中,同时优化了自编码网络模块以及聚类模块,从而达到聚类完成的效果。

实施方案

[0041] 以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
[0042] 本发明的目的是针对现有技术的缺陷,提供了一种基于Sliced‑Wasserstein 距离的深度自编码嵌入聚类的方法。
[0043] 实施例一
[0044] 本实施例提供一种基于Sliced‑Wasserstein距离的深度自编码进行图像降维并嵌入聚类的方法,如图1‑3所示,包括步骤:
[0045] S11.构建基于Sliced‑Wasserstein距离的自编码网络模块;
[0046] S12.构建聚类模块;
[0047] S13.将所述构建的自编码网络模块和聚类模块进行联合,构建基于Sliced‑Wasserstein距离的自编码嵌入式聚类网络;
[0048] S14.初始化构建后的自编码嵌入式聚类网络的聚类中心,将无标签的数据集输入到网络进行迭代训练,并对自编码嵌入式聚类网络进行处理,当所述处理后的自编码嵌入式聚类网络达到预设阈值时,完成最终的聚类。
[0049] 本实施例利用基于Sliced‑Wasserstein距离的自编码网络框架,并在此基础上引入了均方误差损失、L1损失、软分配聚类损失,以及KL损失进行联合优化聚类,在网络的迭代训练过程中,同时优化了自编码网络模块以及聚类模块,从而达到聚类完成的效果。
[0050] 本实施例基于Sliced‑Wasserstein距离的自编码嵌入式聚类网络,是深度自编码网络和聚类模块两部分的融合。
[0051] 在步骤S11中,构建基于Sliced‑Wasserstein距离的自编码网络模块。
[0052] 构造基于Sliced‑Wasserstein距离的自编码网络(SWAE)模块。该自动编码网络结构由通用的编码器f(x;θf)和解码器g(z;θg)组成,如图2所示。原始图像经过网络的编码器,在指定的特征空间中提取图像的低维特征向量z,再经过网络的解码器,得到重构的新图像。设数据x1,x2,...,xN∈X是原始图像的输入, z是自编码网络(SWAE)中编码器f(x;θf)输出的特征向量,而x′n是解码器 g(z;θg)的输出重构图像,为了使网络重构后的图像保留更多原始图像的特征信息,可以利用均方损失、L1范数损失以及Sliced‑Wasserstein的近似距离来约束网络的重构和映射至潜在特征空间的性能,即
[0053]
[0054]
[0055]
[0056]
[0057]
[0058] 其中,μ表示输入数据的分布;η表示自编码网络重构后的数据分布,pz表示数据在指定特征空间中编码后的分布;qz表示预先定义的采样分布;λ表示一个超参数,用于鉴定损失函数的相对重要性。
[0059] 设Sd‑1是概率空间Ωd中的单位球,对于一个向量v∈Sd‑1,其中 代表选取的N个切片单元,(∏v)#η表示η的投影分布,Γ(η,μ)表示的是η和μ组合起来的所有可能联合分布的集合,自编码器模块的最终优化约束条件为:
[0060]
[0061] 在步骤S12中,构建聚类模块。
[0062] 其中,构建聚类模块包括构建聚类模块中的软分配、KL损失优化、软聚类损失优化。
[0063] 构建聚类模块中的软分配:
[0064] 假设质心为ρ1,ρ2,...,ρK,使用t分布作为核函数来测量嵌入点zi和质心ρj之间的相似性:具体为:
[0065]
[0066] 其中,ρj表示质心;zi表示嵌入点;zi=fθ(xi)∈Z对应于数据点xi∈X嵌入后的特征向量;Z表示数据提取特征后的低维空间;X表示数据的原始空间;α表示t分布的自由度;qij表示将样本i分配给聚类质心ρj的概率;通常,自由度α=1。
[0067] 构建聚类模块中的KL损失优化:
[0068] 在辅助目标分布的帮助下,模型通过将软分配与辅助分布相匹配来进行训练。为此,将目标函数定义为软分配分布qi和辅助分布pi之间的KL‑divergence 损失:
[0069]
[0070] 通过将qi提升到第二个幂然后按每个簇的频率进行归一化来定义辅助目标函数pi:
[0071]
[0072] 其中,fj=∑iqij表示软集群频率;qij可以通过嵌入式聚类网络由公式(7) 计算得到。通过对原始分布求平方并对其进行归一化,辅助分布pij强制赋值具有更严格的概率,即更接近0和1。
[0073] 构建聚类模块中的软聚类损失优化:
[0074] 软聚类需要最小化损失函数
[0075]
[0076] 其中,Ewkm表示软聚类最小损失;需要满足条件φi(k)>0; β>0。在神经网络的训练中,质心会根据网络的迭代训练过程进行更新优化,对于软分配的计算,在实验中将公式设置为φi(k)=qij。
[0077] 在步骤S13中,将所述构建的自编码网络模块和聚类模块进行联合,构建基于Sliced‑Wasserstein距离的自编码嵌入式聚类网络。
[0078] 具体为将构建的自编码网络模块和构建的聚类模块中的软分配、KL损失优化、软聚类损失优化进行联合到最终的网络中,整体框架如图3所示。结合步骤S11中的公式(6)和步骤S12中的公式(8)、(10),得到最终的整个网络的损失函数为:
[0079]
[0080] 其中,α,β,γ表示超参数,用于更好的协调网络各部分之间的权重。
[0081] 在步骤S14中,初始化构建后的自编码嵌入式聚类网络的聚类中心,将无标签的数据集输入到网络进行迭代训练,并对自编码嵌入式聚类网络进行处理,当所述处理后的自编码嵌入式聚类网络达到预设阈值时,完成最终的聚类。
[0082] 搭建完嵌入式聚类网络的整体模块后,首先使用Xavier Uniform方法初始化网络的聚类中心,再将无标签的数据集输入到网络进行迭代的训练,微调超参数α,β,γ,网络会根据最终的网络损失函数(11)自动优化嵌入式聚类网络,当达到一定的精度或者达到指定的迭代次数时,终止训练,从而完成最终的聚类。
[0083] 本实施例是一种更有效的深度学习的无监督聚类方法,提出了基于 Sliced‑Wasserstein距离的深度自编码器(SWAE),并利用该编码器进行深度非线性特征的提取以及同时完成聚类的过程。这是一种使用深度神经网络同时学习特征表示和优化聚类分配的无监督方法,其中,基于Sliced‑Wasserstein距离的自编码网络学习从高维数据空间到指定低维特征空间的映射,它可以使潜在空间的分布成形为任何可简化的概率分布,避免了在编码空间中执行昂贵的对抗训练的过程,在计算性能方面产生显着的提升,并且不仅限于封闭形式的分布,同时仍然受益于Wasserstein距离测度编码空间,可以对问题进行简单的数值解,保留了Wasserstein AutoEncoder模型提取数据低维特征的优势。另外,整体网络能够在映射到该空间中的同时迭代地优化聚类目标以完成聚类,从而提升聚类的精度、泛化性能。
[0084] 本实施例利用基于Sliced‑Wasserstein距离的自编码网络框架,并在此基础上引入了均方误差损失、L1损失、软分配聚类损失,以及KL损失进行联合优化聚类,在网络的迭代训练过程中,同时优化了自编码网络模块以及聚类模块,从而达到聚类完成的效果。
[0085] 注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

附图说明

[0038] 图1是实施例一提供的一种基于Sliced‑Wasserstein距离的深度自编码嵌入聚类的方法流程图;
[0039] 图2为实施例一提供的基于Sliced‑Wasserstein距离的自编码网络框架示意图;
[0040] 图3为实施例一提供的结合聚类模块的基于Sliced‑Wasserstein距离的自编码嵌入式聚类网络框架示意图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号