学位论文 > 优秀研究生学位论文题录展示

策略梯度增强学习的理论、算法及应用研究

作 者: 王学宁
导 师: 贺汉根
学 校: 国防科学技术大学
专 业: 控制科学与工程
关键词: 增强学习 策略梯度 策略搜索 机器学习 Markov决策过程 月球车 部分可观测Markov决策过程 先验知识 多轮协调
分类号: TP181
类 型: 博士论文
年 份: 2006年
下 载: 449次
引 用: 1次
阅 读: 论文下载
 

内容摘要


增强学习(Reinforcement Learning)又称为强化学习或再励学习,是近年来机器学习和人工智能领域研究的热点之一。与监督学习不同,增强学习不需要给定输入状态下的期望输出,而强调在与环境的交互中进行学习,以极大化(或极小化)从环境获得的评价性反馈信号为学习目标,因此增强学习在求解无法获得教师信号的复杂优化与决策问题中具有广泛的应用前景。作为增强学习领域的一个重要研究方向,策略梯度(Policy gradient)方法克服了基于值函数(Value function)的增强学习算法不能保证收敛、难于引入先验知识等缺陷。但是另一方面,由于在梯度估计过程中方差过大,使得策略梯度算法收敛速度很慢,成为策略梯度增强学习被广泛应用的一个障碍。为此,本文在国家自然科学基金重点项目“未知环境中移动机器人导航控制的理论与方法研究(60234030)”的资助下,重点研究策略梯度增强学习理论、算法及其在月球车运动控制中的应用。在分析了策略梯度增强学习理论框架的基础上,主要研究了两类提高策略梯度学习算法收敛性能的方法,即:回报基线方法和引入先验知识的方法。其中,回报基线方法能够有效地降低策略梯度增强学习的梯度估计方差;而通过引入先验知识不仅可以提高策略梯度增强学习算法的收敛速度,还能克服在学习初期因为初始化策略的随机性而带来的缺陷。文中针对月球车运功控制中的多轮协调问题,提出了一种基于混合策略梯度增强学习的自适应控制方法。本文的创新点和研究成果主要包括:1、在策略梯度增强学习理论框架的研究中,证明了现有策略梯度增强学习算法的梯度估计公式都符合统一的形式。并且在上述理论框架的指导下,对现有的策略梯度算法进行了推广。2、针对部分可观测马氏决策过程(POMDP),研究了策略梯度增强学习中的回报基线方法。提出了一种求解最优回报基线的方法,使得策略梯度估计的方差减小到最小。文中对最优回报基线的性质进行了理论证明,并且提出了一种新的求解POMDP的策略梯度学习算法-Istate-Grbp,该算法通过利用回报基线,减小了梯度估计的方差。仿真实验结果表明,通过减小方差,算法能够有效地提高收敛速度。3、研究了利用模糊推理系统引入先验知识的策略梯度增强学习算法。本文分别针对具有离散行为空间和连续行为空间的马氏决策问题,提出了两种模糊策略梯度增强学习方法(Fuzzy Policy Gradient: FPG)。因为在模糊规则的制定过程中,难以确定的往往是后件参数,因此在本文提出的两种模糊策略梯度算法中,都是利用策略梯度方法调整模糊规则的后件参数。文中证明了这两种模糊策略梯度算法的收敛性,仿真实验表明了算法的有效性。4、提出了利用支持向量机(Support Vector Machine: SVM)引入先验知识的混合策略梯度增强学习方法PG-SVM。PG-SVM算法在策略梯度增强学习的框架下利用SVM来进行初始策略的学习和逼近,从而可以通过训练样本数据来自动引入先验知识。与已有方法相比,PG-SVM算法具有以下几个优点:(1)只要是能够提供样本点的先验知识,就可以很容易地结合到算法中来;(2)在线的策略梯度增强学习算法可以克服学习过程中的各种不确定性;(3)策略函数的结构可以通过SVM算法来确定,因而是数据驱动的,而不是预先定义的。5、针对月球车运动控制中的多轮协调问题,提出了一种基于混合策略梯度增强学习的自适应控制方法。由于月球车本身结构的复杂性,基于模型的经典控制将会有很大的困难,并且经典控制还需要在线估计地形的各种参数。针对这种导师信号难以获取、模糊规则难以制定的复杂优化控制问题,本文提出了一种基于混合式策略梯度增强学习PG-SVM的多轮协调控制方法。对于这种具有高维连续状态和行为空间的复杂问题,以往的增强学习算法不仅特别耗时,并且还需要利用仿真环境。这不仅需要月球车的动力学模型,还需要对月球车的行驶环境进行模拟。而本文提出的PG-SVM增强学习控制方法通过利用基于训练数据的先验知识,极大地缩短了学习时间,并且保证了在学习过程中的在线性能。这使得学习过程可以完全在实车上进行,不需要任何的仿真环境,这对推动增强学习的实用化进程具有重要的意义。最后得到控制器的控制效果是令人满意的。本文的最后一章对今后进一步的研究方向进行了分析和展望。

全文目录


摘要  11-13
ABSTRACT  13-16
第一章 绪论  16-34
  1.1 研究背景  16-17
  1.2 增强学习的发展现状  17-26
    1.2.1 增强学习算法的发展概况  18-21
    1.2.2 策略梯度增强学习算法  21-23
    1.2.3 增强学习应用的研究进展  23-26
  1.3 月球漫游车技术发展概况  26-30
    1.3.1 国外月球车的研究现状  27
    1.3.2 国内月球车的研究现状  27
    1.3.3 月球车的关键技术  27-28
    1.3.4 运动控制中的多轮协调  28-30
  1.4 本文的主要研究内容、组织结构和主要贡献  30-34
    1.4.1 本文的主要研究内容  30-31
    1.4.2 论文的组织结构  31-32
    1.4.3 论文的主要贡献  32-34
第二章 策略梯度增强学习的理论框架  34-46
  2.1 Markov 决策过程  35-40
    2.1.1 Markov 链  35-37
    2.1.2 Markov 决策过程  37-39
    2.1.3 最优性准则  39-40
  2.2 策略梯度增强学习  40-45
    2.2.1 基本概念和基本理论  40-41
    2.2.2 策略梯度算法的收敛条件  41-42
    2.2.3 策略梯度增强学习的统一理论框架  42-44
    2.2.4 现有策略梯度算法的推广  44-45
  2.3 小结  45-46
第三章 策略梯度增强学习中的最优回报基线  46-66
  3.1 部分可观测Markov 决策模型及其信度状态  46-50
    3.1.1 部分可观测Markov 决策模型  46-48
    3.1.2 信度状态  48
    3.1.3 基于信度状态的Markov 决策过程  48-49
    3.1.4 信度状态MDP 的值函数及其性质  49-50
  3.2 POMDP 的无记忆策略  50-56
    3.2.1 无记忆策略的振荡问题  50-51
    3.2.2 求解POMDP 问题的CPnSarsa(λ)算法  51-53
    3.2.3 仿真实验与讨论  53-56
  3.3 策略梯度算法中的最优回报基线  56-65
    3.3.1 内部状态和POMDP 的参数化策略  57-58
    3.3.2 策略梯度增强学习中的最优回报基线  58-61
    3.3.3 仿真实验与讨论  61-65
  3.4 小结  65-66
第四章 融合先验知识的策略梯度增强学习算法  66-99
  4.1 模糊策略梯度增强学习  67-76
    4.1.1 离散行为模糊策略梯度增强学习  67-69
    4.1.2 连续行为模糊策略梯度算法  69-71
    4.1.3 模糊策略梯度算法的收敛性  71-73
    4.1.4 仿真实验与讨论  73-76
  4.2 结合SVM 的策略梯度增强学习算法  76-98
    4.2.1 SVM 基本理论  77-80
    4.2.2 离散行为PG-SVM 算法  80-81
    4.2.3 连续行为PG-SVM 算法  81-82
    4.2.4 收敛性证明  82-85
    4.2.5 最优性分析  85-89
    4.2.6 仿真实验与讨论  89-98
  4.3 小结  98-99
第五章 策略梯度算法在月球车运动控制中的应用  99-121
  5.1 月球车结构与运动控制特点  100-103
  5.2 平坦硬质地面控制准则  103-105
    5.2.1 瞬时转向中心  103
    5.2.2 控制法则的建立  103-105
  5.3 先验知识的获取  105-112
    5.3.1 正常情况下速度/电流的比值  106-107
    5.3.2 非正常情况下速度/电流的比值  107-112
  5.4 利用PG-SVM 混合增强学习的自适应优化控制  112-120
  5.5 小结  120-121
第六章 总结与展望  121-124
致谢  124-125
参考文献  125-134
作者在学期间取得的学术成果  134

相似论文

  1. 基于多Agent理论的卫星协同定轨技术研究,V474
  2. 月球车建模分析及滑转量估计研究,TP242
  3. 基于数据分布特征的文本分类研究,TP391.1
  4. 基于客户端驱动的流媒体自适应传输技术研究,TN919.8
  5. 基于条件随机场的中文分词技术的研究与实现,TP391.1
  6. 基于增强学习的多sink无线传感网路由机制研究,TP212.9
  7. 领域知识指导的半监督学习和主动学习倾向性分类研究,TP181
  8. Android恶意软件静态检测方案的研究,TP309
  9. 监督主题模型的研究与应用,TP391.1
  10. 基于失真效应的图像质量评价与分类,TP391.41
  11. 基于学习的逆向运动学人体运动合成,TP391.41
  12. 基于内容的网页恶意代码检测的研究与实现,TP393.092
  13. 学术主页信息抽取系统的研究,TP393.092
  14. 社会化网络中的推荐算法及其应用,TP391.3
  15. 数据挖掘在邮件反垃圾系统中的应用,TP393.098
  16. 基于自学习的社会关系抽取的研究,TP391.1
  17. 基于统计与图模型的若干机器学习算法及其应用,TP181
  18. P2P流量识别方法研究,TP393.06
  19. 基于粗糙集和SVM的国防生综合素质测评方法研究,E075
  20. 基于SIFT特征和SVM的场景分类,TP391.41
  21. 基于稀疏编码与机器学习的图像内容识别算法研究,TP391.41

中图分类: > 工业技术 > 自动化技术、计算机技术 > 自动化基础理论 > 人工智能理论 > 自动推理、机器学习
© 2012 www.xueweilunwen.com