首页 > 专利 > 燕山大学 > 一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法专利详情

一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法   0    0

有效专利 查看PDF
专利申请流程有哪些步骤?
专利申请流程图
申请
申请号:指国家知识产权局受理一件专利申请时给予该专利申请的一个标示号码。唯一性原则。
申请日:提出专利申请之日。
2018-11-13
申请公布
申请公布指发明专利申请经初步审查合格后,自申请日(或优先权日)起18个月期满时的公布或根据申请人的请求提前进行的公布。
申请公布号:专利申请过程中,在尚未取得专利授权之前,国家专利局《专利公报》公开专利时的编号。
申请公布日:申请公开的日期,即在专利公报上予以公开的日期。
2019-02-19
授权
授权指对发明专利申请经实质审查没有发现驳回理由,授予发明专利权;或对实用新型或外观设计专利申请经初步审查没有发现驳回理由,授予实用新型专利权或外观设计专利权。
2020-08-11
预估到期
发明专利权的期限为二十年,实用新型专利权期限为十年,外观设计专利权期限为十五年,均自申请日起计算。专利届满后法律终止保护。
2038-11-13
基本信息
有效性 有效专利 专利类型 发明专利
申请号 CN201811342346.4 申请日 2018-11-13
公开/公告号 CN109240091B 公开/公告日 2020-08-11
授权日 2020-08-11 预估到期日 2038-11-13
申请年 2018年 公开/公告年 2020年
缴费截止日
分类号 G05B13/04 主分类号 G05B13/04
是否联合申请 独立申请 文献类型号 B
独权数量 1 从权数量 5
权利要求数量 6 非专利引证数量 1
引用专利数量 1 被引证专利数量 0
非专利引证 1、2018.10.11CN 105929842 A,2016.09.07张辉.海洋环境下AUV目标跟踪控制研究. 《工程科技Ⅱ辑》.2013,1-78.;
引用专利 WO2018186750A 被引证专利
专利权维持 4 专利申请国编码 CN
专利事件 转让 事务标签 公开、实质审查、授权、权利转移
申请人信息
申请人 第一申请人
专利权人 燕山大学 当前专利权人 芽米科技(广州)有限公司
发明人 闫敬、公雅迪、罗小元、杨晛、李鑫 第一发明人 闫敬
地址 河北省秦皇岛市海港区河北大街西段438号 邮编 066004
申请人数量 1 发明人数量 5
申请人所在省 河北省 申请人所在市 河北省秦皇岛市
代理人信息
代理机构
专利代理机构是经省专利管理局审核,国家知识产权局批准设立,可以接受委托人的委托,在委托权限范围内以委托人的名义办理专利申请或其他专利事务的服务机构。
北京挺立专利事务所 代理人
专利代理师是代理他人进行专利申请和办理其他专利事务,取得一定资格的人。
刘阳
摘要
本发明公开了一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法,属于水下机器人控制领域。本发明中控制中心给出水下机器人的期望轨迹信息,并发送至水下机器人;根据水下机器人模型中不确定参数的概率密度函数,分别对其选取采样点,利用采样点对原始的动力学模型降阶;水下机器人和周围环境进行交互以学习环境信息,在不同状态计算一步代价函数进行价值更新,用最小二乘法求解控制策略对应的价值函数的权重,用梯度下降法进行控制策略改进,循环迭代价值更新和策略改进两个过程直至收敛,从而得到当前位置追踪期望轨迹的最优控制策略;重复以上步骤得到对其余期望轨迹追踪的最优控制策略,最终完成追踪任务。
  • 摘要附图
    一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法
  • 说明书附图:图1
    一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法
  • 说明书附图:图2
    一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法
法律状态
序号 法律状态公告日 法律状态 法律状态信息
1 2021-06-22 专利权的转移 登记生效日: 2021.06.10 专利权人由燕山大学变更为芽米科技(广州)有限公司 地址由066004 河北省秦皇岛市海港区河北大街西段438号变更为510530 广东省广州市黄埔区科丰路85号801房
2 2020-08-11 授权
3 2019-02-19 实质审查的生效 IPC(主分类): G05B 13/04 专利申请号: 201811342346.4 申请日: 2018.11.13
4 2019-01-18 公开
权利要求
权利要求书是申请文件最核心的部分,是申请人向国家申请保护他的发明创造及划定保护范围的文件。
1.一种基于强化学习的水下机器人控制方法,其特征在于,包括以下步骤:
步骤1、为水下机器人自身位置建立基于机器人自身期望轨迹位置的固定参考系,以及建立基于水下环境不确定因素的惯性参考系;
步骤2、对于惯性参考系,在前后、左右、上下三个方向上构建由基于不确定因素的系统映射机器人输出模型:
式中,ai是水下机器人受到的第i个不确定因素, 为系数,每个不确定因素ai都遵循独立的概率密度函数
根据不确定因素各自的概率密度函数,为每个不确定因素定点采样,利用采样点对系统映射机器人输出模型进行训练,构建降阶系统映射机器人输出模型:
式中, 是低阶映射中不确定因素的系数;
步骤3、将水下机器人真实位置转化为步骤1的固定参考系中的坐标,并获取步骤2惯性参考系中的机器人降阶系统映射的模型输出;
步骤4、定义水下机器人在不同的状态k下的真实位置为:
p(k)=[x(k),y(k),z(k)]T
定义水下机器人在不同的状态k下的期望轨迹位置为:
pr(k)=[xr(k),yr(k),zr(k)]T
定义水下机器人在不同状态k下的下一步动作的一步代价函数为
gk(p,u)=(x(k)-xr(k))2+(y(k)-yr(k))2+(z(k)-zr(k))2+u2(k)
其中(x-xr)2+(y-yr)2+(z-zr)2代表水下机器人位置误差的代价,u是水下机器人控制器输入,u2代表消耗能量的代价;
根据水下机器人位置移动产生的一步代价函数对机器人进行训练,获得价值函数V(p(k))=Ea(k){gk(p,u)+γV(p(k+1))}
式中,γ∈(0,1)是折扣因子,Ea(k)表示状态k下的期望函数;
令V=WTΦ(p),使用迭代权重的方法获得控制方法的价值模型:
Wj+1Φ(p(k))=Ea(k)[gk(p,u)+γWjΦ(p(k+1))]
式中, 为基向量,W是权重向量;
步骤5、对控制方法的价值模型求解;令h(p)=UTσ(p),其中权重向量U用梯度下降法进行更新,利用最小时的价值函数对控制方法进行改进:
其中h(p)是水下机器人进行位置追踪时每个状态下所进行的下一步动作,将h(p)作为最优控制策略;
步骤6、利用迭代权重的方法对控制方法的价值模型更新和控制策略改进两个过程的同时收敛,完成对当前状态下最优控制策略的求解;
步骤7、将步骤3中真实位置输入到步骤4中,经过步骤5-6操作,获取下一步动作的最优控制策略,并将其作为输出输入到步骤2的系统映射机器人输出模型中,然后循环重复步骤
3、7操作,完成水下机器人的追踪任务。

2.根据权利要求1所述的一种基于强化学习的水下机器人控制方法,其特征在于,所述步骤1中的不确定因素为水下的浪涌、摇摆和升沉。

3.根据权利要求1所述的一种基于强化学习的水下机器人控制方法,其特征在于,所述步骤2中的降阶系统映射机器人输出模型的输出均值E'(G'(a1,a2,a3)),与系统映射机器人输出模型的输出均值E(G(a1,a2,a3))相同。

4.根据权利要求1所述的一种基于强化学习的水下机器人控制方法,其特征在于,所述步骤4的具体步骤如下:
水下机器人在不同状态k下自身位置为p(k)=[x(k),y(k),z(k)]T,期望轨迹为pr(k)=[xr(k),yr(k),zr(k)]T;为了求得最优控制策略,即水下机器人进行位置追踪时每个状态下
2
所进行的动作h,设置水下机器人在不同状态下的一步代价函数为gk(p,u)=(x(k)-xr(k))+(y(k)-yr(k))2+(z(k)-zr(k))2+u2(k),其中(x-xr)2+(y-yr)2+(z-zr)2代表追踪误差的代价,u是水下机器人控制器输入,u2代表消耗能量的代价;通过设置的一步代价函数计算价值函数:
V(p(k))=Ea(k){gk+γV(p(k+1))}
式中,γ∈(0,1)是折扣因子,Ea(k)表示状态k下的期望函数;
在价值更新过程中,令V=WTΦ(p),则价值函数可表示为:Wj+1Φ(p(k))=Ea(k)[gk(p,u)+γWjΦ(p(k+1))]
式中, 为基向量;W是权重向量,通过最
小二乘法迭代求解;所述步骤5的具体步骤如下,得到价值函数后,在策略改进步骤中,同样利用设置基向量和权重向量的方法求解最优追踪控制策略,求解时,令h(p)=UTσ(p),其中权重向量U用梯度下降法进行更新,σ(p)为基向量;利用最小时的价值函数对控制策略进行改进:
其中h(p)是由水下机器人学习通过对环境的学习得到的控制策略,此策略即为最优控制策略。

5.根据权利要求1所述的一种基于强化学习的水下机器人控制方法,其特征在于,所述步骤6的具体内容如下:
当每次利用迭代权重的方法对控制方法的价值模型更新和控制策略改进两个过程,得到的权重变化小于阈值0.001时,视为收敛,迭代完成的h作为控制器的输入u输入至水下机器人。

6.一种利用水下机器人进行跟踪的控制方法,其特征在于,将被跟踪物体在水下运动的轨迹作为水下机器人自身期望轨迹,利用权利要求1所述的一种基于强化学习的水下机器人控制方法,对水下机器人进行控制,实现对被跟踪物体的跟踪。
说明书

技术领域

[0001] 本发明涉及水下机器人控制领域,具体涉及一种基于强化学习的水下机器人控制方法及其进行跟踪的控制方法。

背景技术

[0002] 随着海洋资源的应用越来越广泛,水下机器人也受到了人们更多的重视。水下机器人在海洋中的一个重要应用就是位置追踪,但水下环境复杂多变,使得水下机器人的模型参数很难获取,控制难度大。
[0003] 在现有技术中检索发现,公开号为CN106708069A的专利申请设计了一种水下移动作业机器人的协调规划与控制方法。该方法包括通过动态追踪微分器,实时规划当前期望的速度与状态,用迭代任务优先方法将笛卡尔空间的任务规划转化到随体坐标系和各关节坐标系的速度与加速度规划,根据速度与加速度规划,利用动力学方法来控制水下机器人和作业臂,从而使得水下移动作业机器人进行巡游与作业。但此发明没有考虑到水下环境中的不确定性对水下机器人的影响,在海洋环境中,水下机器人在运行中会受到各种干扰,如浪涌、摇摆和升沉的作用力的影响,如果不将这些不确定的因素考虑到算法之中,在实际运行中会达不到理想的效果。
[0004] 再有,公开号为CN107544256A的专利申请设计了基于自适应反步法的水下机器人滑模控制,本发明提供一种基于自适应反步法的水下机器人滑模控制方法。该方法基于对复杂非线性系统的分解,通过为子系统设计虚拟控制量,结合滑动模态逐级递推得到全系统的控制量,针对系统不确定上界引起的抖振问题,控制器中引入径向基函数神经网络,自适应逼近系统内部不确定性与外部干扰,最终实现对系统抖振的控制,并实现高精度跟踪控制,提高闭环系统鲁棒性,满足工程需求。该发明中所提出的内部不确定性与外部干扰是确定参数,但在实际工作环境中,在考虑会对水下机器人造成干扰的参数时,应将参数设置为时变不确定参数。

发明内容

[0005] 本发明的目的在于克服上述不足,提出一种基于强化学习的水下机器人控制方法,在准确追踪目标轨迹的同时减少对具有不确定参数系统的采样次数,利用水下机器人对环境的学习实现控制。
[0006] 为实现上述目的,本发明采用下述技术方案:
[0007] 一种基于强化学习的水下机器人控制方法,其特征在于,包括以下步骤:
[0008] 步骤1、为水下机器人自身位置建立基于机器人自身期望轨迹位置的固定参考系,以及建立基于水下环境不确定因素的惯性参考系;
[0009] 步骤2、对于惯性参考系,在前后、左右、上下三个方向上构建由基于不确定因素的系统映射机器人输出模型:
[0010]
[0011] 式中,ai是水下机器人受到的第i个不确定因素, 为系数,每个不确定因素ai都遵循独立的概率密度函数
[0012] 根据不确定因素各自的概率密度函数,为每个不确定因素定点采样,利用采样点对系统映射机器人输出模型进行训练,构建降阶系统映射机器人输出模型:
[0013]
[0014] 式中, 是低阶映射中不确定因素的系数;
[0015] 步骤3、将水下机器人真实位置转化为步骤1的固定参考系中的坐标,并获取步骤2惯性参考系中的机器人降阶系统映射的模型输出;
[0016] 步骤4、定义水下机器人在不同的状态k下的真实位置为:
[0017] p(k)=[x(k),y(k),z(k)]T
[0018] 定义水下机器人在不同的状态k下的期望轨迹位置为:
[0019] pr(k)=[xr(k),yr(k),zr(k)]T
[0020] 定义水下机器人在不同状态k下的下一步动作的一步代价函数为
[0021] gk(p,u)=(x(k)-xr(k))2+(y(k)-yr(k))2+(z(k)-zr(k))2+u2(k)
[0022] 其中(x-xr)2+(y-yr)2+(z-zr)2代表水下机器人位置误差的代价,u是水下机器人控2
制器输入,u代表消耗能量的代价;
[0023] 根据水下机器人位置移动产生的一步代价函数对机器人进行训练,获得价值函数[0024] V(p(k))=Ea(k){gk(p,u)+γV(p(k+1))}
[0025] 式中,γ∈(0,1)是折扣因子,Ea(k)表示状态k下的期望函数;
[0026] 令V=WTΦ(p),使用迭代权重的方法获得控制方法的价值模型:
[0027] Wj+1Φ(p(k))=Ea(k)[gk(p,u)+γWjΦ(p(k+1))]
[0028] 式中, 为基向量,W是权重向量;
[0029] 步骤5、对控制方法的价值模型求解;令h(p)=UTσ(p),其中权重向量U用梯度下降法进行更新,利用最小时的价值函数对控制方法进行改进:
[0030]
[0031] 其中h(p)是水下机器人进行位置追踪时每个状态下所进行的下一步动作,将h(p)作为最优控制策略;
[0032] 步骤6、利用迭代权重的方法对控制方法的价值模型更新和控制策略改进两个过程的同时收敛,完成对当前状态下最优控制策略的求解;
[0033] 步骤7、将步骤3中真实位置输入到步骤4中,经过步骤5-6操作,获取下一步的最优控制策略,并将其作为输出输入到步骤2的系统映射机器人输出模型中,然后循环重复步骤3、7操作,完成水下机器人的追踪任务。
[0034] 进一步的技术方案在于,所述步骤1中的不确定因素为水下的浪涌、摇摆和升沉。
[0035] 进一步的技术方案在于,所述步骤2中的降阶系统映射机器人输出模型的输出均值E'(G'(a1,a2,a3)),与系统映射机器人输出模型的输出均值E(G(a1,a2,a3))相同。
[0036] 进一步的技术方案在于,所述步骤4的具体步骤如下:
[0037] 水下机器人在不同状态k下自身位置为p(k)=[x(k),y(k),z(k)]T,期望轨迹为pr(k)=[xr(k),yr(k),zr(k)]T;为了求得最优控制策略,即水下机器人进行位置追踪时每个状态下所进行的动作h,设置水下机器人在不同状态下的一步代价函数为gk(p,u)=(x(k)-2 2 2 2 2 2 2
xr(k))+(y(k)-yr(k)) +(z(k)-zr(k)) +u (k),其中(x-xr)+(y-yr) +(z-zr)代表追踪误差的代价,u是水下机器人控制器输入,u2代表消耗能量的代价;通过设置的一步代价函数计算价值函数:
[0038] V(p(k))=Ea(k){gk+γV(p(k+1))}
[0039] 式中,γ∈(0,1)是折扣因子,Ea(k)表示状态k下的期望函数;
[0040] 在价值更新过程中,令V=WTΦ(p),则价值函数可表示为:Wj+1Φ(p(k))=Ea(k)[gk(p,u)+γWjΦ(p(k+1))]
[0041] 式中, 为基向量;W是权重向量,通过最小二乘法迭代求解;得到价值函数后,在策略改进步骤中,同样利用设置基向量和权重向量的方法求解最优追踪控制策略,求解时,令h(p)=UTσ(p),其中权重向量U用梯度下降法进行更新,σ(p)为基向量;利用最小时的价值函数时控制策略进行改进:
[0042]
[0043] 其中h(p)是由水下机器人学习通过对环境的学习得到的控制策略,此策略即为最优控制策略。
[0044] 进一步的技术方案在于,所述步骤6的具体内容如下:
[0045] 当每次利用迭代权重的方法对控制方法的价值模型更新和控制策略改进两个过程,得到的权重变化小于阈值0.001时,视为收敛,迭代完成的h作为控制器的输入u输入至水下机器人。
[0046] 进一步的技术方案在于,一种利用水下机器人进行跟踪的控制方法,其将被跟踪物体在水下运动的轨迹作为水下机器人自身期望轨迹,上述所述的一种基于强化学习的水下机器人控制方法,对水下机器人进行控制,实现对被跟踪物体的跟踪。
[0047] 与现有技术相比,本发明具有如下优点:
[0048] 本发明运用降阶的方法对水下机器人涉及到水下不确定因素的不确定参数进行采样,可以给出精确的原始映射的输出统计量,进而降低计算成本,有效减少模拟次数。
[0049] 本发明运用强化学习的方法使水下机器人进行位置追踪,综合了自适应和最优控制的优点,利用环境的响应寻求最优反馈策略。利用周围环境信息,通过多次迭代使水下机器人能够通过自身的学习,找到最符合目标轨迹的控制策略。
[0050] 本发明实现了水下机器人的智能追踪。运用降阶的方法对水下机器人的不确定参数进行采样与强化学习相结合,使水下机器人系统的后向实时最优控制成为前向自适应控制,使得水下机器人能更好的完成轨迹追踪。

实施方案

[0053] 下面结合附图对本发明做进一步说明:
[0054] 如图2所示,本发明在水面放有浮标继电器,用其对水下机器人进行自定位,控制中心给出水下机器人的期望轨迹信息,并发送至水下机器人;水下机器人控制器根据系统控制控制驱动器进行驱动,完成水下机器人的运动。
[0055] 如图1所示,本发明阐述了一种基于强化学习的水下机器人控制方法,其方法包括以下步骤:
[0056] 步骤一水下机器人在水下受到周围环境的影响,需要对水下机器人模型中的不确定因素进行评估,方可完成水下机器人控制器对驱动器的控制;水下机器人有上、下、左、右、前、后六个自由度,其动力学特性可由两种参考系进行描述,基于机器人自身期望轨迹位置的固定参考系和水下环境不确定因素的惯性参考系。其中固定参考系、惯性参考系均分别考虑上下、左右、前后三个方向,水下的惯性参考系将水下的浪涌、摇摆和升沉等因素作为不确定因素进行不确定参数的引用。
[0057] 惯性参考系中,浪涌,摇摆和升沉三个方向的线速度两两垂直,同时在线速度的方向上考虑横摇、俯仰和偏航对水下机器人角速度的影响。
[0058] 步骤二 由于水下环境的随机影响,分别对水下机器人惯性参考系的三个方向上的不确定参数进行估计:根据不确定参数各自的概率密度函数,为每个参数选择一组采样点,利用这些采样点分别进行计算,使机器人模型的阶数减少,从而可以通过较少次数的计算获得控制器输出结果的同时,保证输出均值与原模型的输出均值相同,使水下机器人适应水下环境并且实现更准确的控制。
[0059] 具体如下:对于惯性参考系,在前后、左右、上下三个方向上构建由基于不确定因素的系统映射机器人输出模型:
[0060]
[0061] ai是水下机器人受到的第i个不确定因素,在本实施例中将水下的浪涌、摇摆和升沉等因素作为不确定因素进行不确定参数的引用。 为系数。每个不确定参数(或称不确定因素)ai都遵循独立的概率密度函数
[0062] 根据不确定因素各自的概率密度函数,为每个不确定因素定点采样,利用采样点对系统映射机器人输出模型进行训练,构建降阶系统映射机器人输出模型:
[0063]
[0064] 其中 是低阶映射中不确定参数新的系数。降阶系统映射机器人输出模型的输出均值E'(G'(a1,a2,a3)),与系统映射机器人输出模型的输出均值E(G(a1,a2,a3))相同,即E'(G'(a1,a2,a3))=E(G(a1,a2,a3))。
[0065] 步骤三 将水下机器人真实位置转化为步骤1的固定参考系中的坐标,并获取步骤2惯性参考系中的机器人降阶系统映射的模型输出;
[0066] 步骤四 定义水下机器人在不同的状态k下其自身位置为
[0067] p(k)=[x(k),y(k),z(k)]T,
[0068] 要进行追踪的期望轨迹为:
[0069] pr(k)=[xr(k),yr(k),zr(k)]T。
[0070] 为了求得最优控制策略,即水下机器人进行位置追踪时每个状态下所进行的动作h,设置水下机器人在不同状态下的一步代价函数为
[0071] gk(p,u)=(x(k)-xr(k))2+(y(k)-yr(k))2+(z(k)-zr(k))2+u2(k)
[0072] 其中(x-xr)2+(y-yr)2+(z-zr)2代表追踪误差的代价,u是水下机器人控制器输入,u2代表消耗能量的代价。通过设置的一步代价函数计算价值函数:
[0073] V(p(k))=Ea(k){gk(p,u)+γV(p(k+1))}
[0074] 式中,γ∈(0,1)是折扣因子,Ea(k)表示状态k下的期望函数;
[0075] 令V=WTΦ(p),则价值函数可表示为:
[0076] Wj+1Φ(p(k))=Ea(k)[gk(p,u)+γWjΦ(p(k+1))]
[0077] 式中, 为基向量。W是权重向量,通过最小二乘法迭代求解。
[0078] 步骤五 得到价值函数后,在策略改进步骤中,同样利用设置基向量和权重向量的方法求解最优追踪控制策略,求解时,令h(p)=UTσ(p),其中权重向量U用梯度下降法进行更新,σ(p)为基向量。利用最小时的价值函数对控制策略进行改进:
[0079]
[0080] 其中h(p)是由水下机器人学习通过对环境的学习得到的控制策略,此策略即为最优控制策略。
[0081] 步骤六通过循环迭代价值更新和策略改进两个过程,当每次迭代价值更新和策略改进过程得到的权重变化小于阈值0.001时,视为收敛,迭代完成的h作为控制器的输出u输入至水下机器人的驱动器,完成对当前状态下最优控制策略的求解。
[0082] 步骤七 将最优控制策略输入到由步骤二得到的降阶系统中,水下机器人更新自身状态,
[0083] 再次重复步骤五、六得到对下一步动作的最优控制策略,再次输入到步骤二中......如此循环往复,最终完成控制方法。
[0084] 本发明还公开了一种利用水下机器人进行跟踪的控制方法,利用被跟踪物体不断移动产生的轨迹信息,将其作为上部步骤1中的期望轨迹信息,利用基于强化学习的水下机器人控制方法,对水下机器人进行控制,实现对被跟踪物体的跟踪。
[0085] 被跟踪物体移动的轨迹信息获得可由浮标继电器进行定位获取。
[0086] 下述给出一个实施例具体予以说明:
[0087] (1)如图2所示,在给定长6m、宽5m和深1.5m的水域内,部署水下机器人,本发明在水面放有浮标继电器,用其对水下机器人进行自定位,控制中心给出水下机器人的期望轨迹信息xr=2sin(0.1k),yr=0.1k,zr=-1,其中k∈[0,...,100s],并发送至水下机器人。
[0088] (2)水下机器人的运动学模型为Sk+1=Sk+Uk+Ak,Sk=[x(k),y(k),z(k)]T为水下机器人自身位置,Uk=[ux,uy,uz]T由强化学习获得,Ak=[a1(k),a2(k),a3(k)]T为不确定参数,其中 -0.2≤a1(k)≤0.3, -0.8≤a2(k)≤0.7,a3(k)=0。
[0089] (3)用强化学习的方法对位置进行追踪,在设置的一步代价函数V(p(k))=Ea(k){gk(p,u)+γV(p(k+1))}中,设置折扣因子γ=0.9。为了求得价值函数,令V=WTΦ(p),权重2 2 T
向量可由最小二乘法迭代得到,基向量为Φ(p)=[1,x,y,x ,y ,xy]。得到价值函数后,在策略改进步骤中,同样利用设置基向量和权重向量的方法求解最优追踪控制策略,求解时,令h(p)=UTσ(p),其中权重向量U用梯度下降法进行更新,σ(p)=[1,x,y]T。利用最小时的价值函数时对控制策略进行改进。
[0090] (4)通过循环迭代价值更新和策略改进两个过程,当每次迭代价值更新和策略改进过程得到的权重变化小于阈值0.001时,视为收敛,迭代完成的h作为控制器的输出u输入至水下机器人的驱动器,完成对当前状态下最优控制策略的求解。
[0091] (5)将最优控制策略作为输出输入到步骤2的系统映射机器人输出模型中,循环以上步骤,即可实现追踪任务。以上所述的实施仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案做出的各种变形和改进,均应落入本发明权利要求书确定的保护范围内。

附图说明

[0051] 图1是本发明的轨迹追踪流程图。
[0052] 图2是本发明的水下移动传感器网络结构示意图。
版权所有:盲专网 ©2023 zlpt.xyz  蜀ICP备2023003576号