zoukankan      html  css  js  c++  java
  • 强化学习(6)---马尔可夫过程

    一、概念

    1、finite MDP:如果一个强化学习任务满足马尔科夫性质,那么就可以把这个任务叫做马尔科夫过程。如果状态空间和动作空间是有限的,那么就叫做有限马尔科夫过程,即finite MDP。

    2、状态S、动作A、转移概率P、期望价值r、

    一个典型的finite MDP 由状态集、动作集和一步内的环境动态性来定义。

    给定状态[公式]和动作[公式],下一个可能状态[公式]的可能性由下式给出:

    [公式]

    这个等式叫做转移概率。

    相似的,给定任何当前的状态和动作,[公式][公式],以及下一个状态[公式],下一个reward的期望价值由下式给出:

    [公式]

    这些等式完整描述了finite MDP的动态性质。

    我们本书中的大多理论的前提假设就是环境是finite MDP。

    3、policy:

    是状态空间到动作空间的映射图,它定义了给定状态下做出给定动作的概率。

    4、Value Functions(s)

    这个function自变量是状态,用来判断在某个给定状态下做出某个动作的好坏程度。

    好坏程度用什么来定义呢?这里我们使用“未来的期望奖励”来定义,也可以说期望返回值。

    显然agent在未来期望得到的奖励取决于它做出什么决策。因此,value function在定义的时候和policy有关。

    在某个policy [公式]的前提下,某个状态[公式]的value function [公式],定义为从当前状态[公式]开始,按照policy [公式]的规则,一直走下去的期望返回值。公式如下:

    [公式]

    我们把上式的[公式]叫做policy[公式] 下的状态-价值函数。

    5、value function(a)

    同样的,我们也可以类似的定义一个在policy [公式]规则下,在状态为[公式]时动作为[公式]的value function,表示为[公式]。公式如下:

    [公式]

    我们把[公式]叫做policy [公式]下的动作-价值函数。

    6、value fun递归方式

    对于任何policy [公式]和任何状态s,当前状态的value和其后的可能状态的value之间的关系如下式:

     

     注意[公式]表示期望奖励,当奖励是确定性的情况下,也就等于即时奖励(immediate reward)。该式叫做policy [公式]的贝尔曼方程。贝尔曼方程对从当前状态起之后的所有可能性进行了平均化,并按照发生的概率给予不同的权重。

    二、优化的value function

    粗略地说,解决一个强化学习问题,也就是意味着找到一个policy,在这个policy下可以获得最好的长期期望奖励。对于finite MDP来说,我们可以用下面的方式精确的定义一个最优policy。如果我们说一个policy [公式] 比另外一个policy [公式]更好,或者一样好,那么其实就是说,对于状态空间中的所有的状态s,按照前一个policy [公式] 得到的[公式]都比后一个policy[公式] 得到的[公式]要大(或者相等)。至少存在一个policy,使得它可以好于或者等于其他所有的policies,这个policy就叫做最优policy(optimal policy)。尽管有可能最优policy有多个,我们用[公式]来表示。最优policies对应的value function是相同的,用[公式]表示,定义如下:

    [公式]

    同样的,最优policies的最优action-value function也是相同的,用[公式]表示,定义如下:

    [公式]

    另外,[公式][公式]之间的关系式如下:

    [公式]

    因为[公式]仍然是价值函数,因此,它也有对应的贝尔曼方程写法,叫做贝尔曼最优方程。贝尔曼最优方程的含义就是,在最优policy下某状态的value,一定等于当前状态下最优动作的期望返回值(in long run)。

  • 相关阅读:
    【转载】eclipse常用插件在线安装地址或下载地址
    【转载】Eclipse快捷键 10个最有用的快捷键
    Visual Studio(C#)快捷键与Eclipse(JAVA)快捷键对比
    【转载】Eclipse 的快捷键以及文档注释、多行注释的快捷键
    Spring 事务配置的几种方式
    Linux下 执行程序
    转:C# 通过委托更新UI(异步加载)
    C#AutoResetEvent和ManualResetEvent的区别
    转 RMI、RPC、SOAP通信技术介绍及比对
    转泛型
  • 原文地址:https://www.cnblogs.com/Lee-yl/p/13623401.html
Copyright © 2011-2022 走看看