zoukankan      html  css  js  c++  java
  • 002-Q Leaning

    本学习笔记转自https://morvanzhou.github.io/

    什么是 Q Leaning

    行为准则 

    Q Leaning

    我们做事情都会有一个自己的行为准则, 比如小时候爸妈常说”不写完作业就不准看电视”. 所以我们在 写作业的这种状态下, 好的行为就是继续写作业, 直到写完它, 我们还可以得到奖励, 不好的行为 就是没写完就跑去看电视了, 被爸妈发现, 后果很严重. 小时候这种事情做多了, 也就变成我们不可磨灭的记忆. 这和我们要提到的 Q learning 有什么关系呢? 原来 Q learning 也是一个决策过程, 和小时候的这种情况差不多. 我们举例说明.

    假设现在我们处于写作业的状态而且我们以前并没有尝试过写作业时看电视, 所以现在我们有两种选择 , 1, 继续写作业, 2, 跑去看电视. 因为以前没有被罚过, 所以我选看电视, 然后现在的状态变成了看电视, 我又选了 继续看电视, 接着我还是看电视, 最后爸妈回家, 发现我没写完作业就去看电视了, 狠狠地惩罚了我一次, 我也深刻地记下了这一次经历, 并在我的脑海中将 “没写完作业就看电视” 这种行为更改为负面行为, 我们在看看 Q learning 根据很多这样的经历是如何来决策的吧.

    Q-Learning 决策 

    Q Leaning

    假设我们的行为准则已经学习好了, 现在我们处于状态s1, 我在写作业, 我有两个行为 a1, a2, 分别是看电视和写作业, 根据我的经验, 在这种 s1 状态下, a2 写作业 带来的潜在奖励要比 a1 看电视高, 这里的潜在奖励我们可以用一个有关于 s 和 a 的 Q 表格代替, 在我的记忆Q表格中, Q(s1, a1)=-2 要小于 Q(s1, a2)=1, 所以我们判断要选择 a2 作为下一个行为. 现在我们的状态更新成 s2 , 我们还是有两个同样的选择, 重复上面的过程, 在行为准则Q 表中寻找 Q(s2, a1) Q(s2, a2) 的值, 并比较他们的大小, 选取较大的一个. 接着根据 a2 我们到达 s3 并在此重复上面的决策过程. Q learning 的方法也就是这样决策的. 看完决策, 我看在来研究一下这张行为准则 Q 表是通过什么样的方式更改, 提升的.

    Q-Learning 更新 

    Q Leaning

    所以我们回到之前的流程, 根据 Q 表的估计, 因为在 s1 中, a2 的值比较大, 通过之前的决策方法, 我们在 s1 采取了 a2, 并到达 s2, 这时我们开始更新用于决策的 Q 表, 接着我们并没有在实际中采取任何行为, 而是再想象自己在 s2 上采取了每种行为, 分别看看两种行为哪一个的 Q 值大, 比如说 Q(s2, a2) 的值比 Q(s2, a1) 的大, 所以我们把大的 Q(s2, a2) 乘上一个衰减值 gamma (比如是0.9) 并加上到达s2时所获取的奖励 R (这里还没有获取到我们的棒棒糖, 所以奖励为 0), 因为会获取实实在在的奖励 R , 我们将这个作为我现实中 Q(s1, a2) 的值, 但是我们之前是根据 Q 表估计 Q(s1, a2) 的值. 所以有了现实和估计值, 我们就能更新Q(s1, a2) , 根据 估计与现实的差距, 将这个差距乘以一个学习效率 alpha 累加上老的 Q(s1, a2) 的值 变成新的值. 但时刻记住, 我们虽然用 maxQ(s2) 估算了一下 s2 状态, 但还没有在 s2 做出任何的行为, s2 的行为决策要等到更新完了以后再重新另外做. 这就是 off-policy 的 Q learning 是如何决策和学习优化决策的过程.

    Q-Learning 整体算法 

    Q Leaning

    这一张图概括了我们之前所有的内容. 这也是 Q learning 的算法, 每次更新我们都用到了 Q 现实和 Q 估计, 而且 Q learning 的迷人之处就是 在 Q(s1, a2) 现实 中, 也包含了一个 Q(s2) 的最大估计值, 将对下一步的衰减的最大估计和当前所得到的奖励当成这一步的现实, 很奇妙吧. 最后我们来说说这套算法中一些参数的意义. Epsilon greedy 是用在决策上的一种策略, 比如 epsilon = 0.9 时, 就说明有90% 的情况我会按照 Q 表的最优值选择行为, 10% 的时间使用随机选行为. alpha是学习率, 来决定这次的误差有多少是要被学习的, alpha是一个小于1 的数. gamma 是对未来 reward 的衰减值. 我们可以这样想象.

    Q-Learning 中的 Gamma 

    Q Leaning

    我们重写一下 Q(s1) 的公式, 将 Q(s2) 拆开, 因为Q(s2)可以像 Q(s1)一样,是关于Q(s3) 的, 所以可以写成这样, 然后以此类推, 不停地这样写下去, 最后就能写成这样, 可以看出Q(s1) 是有关于之后所有的奖励, 但这些奖励正在衰减, 离 s1 越远的状态衰减越严重. 不好理解? 行, 我们想象 Qlearning 的机器人天生近视眼, gamma = 1 时, 机器人有了一副合适的眼镜, 在 s1 看到的 Q 是未来没有任何衰变的奖励, 也就是机器人能清清楚楚地看到之后所有步的全部价值, 但是当 gamma =0, 近视机器人没了眼镜, 只能摸到眼前的 reward, 同样也就只在乎最近的大奖励, 如果 gamma 从 0 变到 1, 眼镜的度数由浅变深, 对远处的价值看得越清楚, 所以机器人渐渐变得有远见, 不仅仅只看眼前的利益, 也为自己的未来着想.

    小例子

    要点 

    这一次我们会用 tabular Q-learning 的方法实现一个小例子, 例子的环境是一个一维世界, 在世界的右边有宝藏, 探索者只要得到宝藏尝到了甜头, 然后以后就记住了得到宝藏的方法, 这就是他用强化学习所学习到的行为.

    -o---T
    # T 就是宝藏的位置, o 是探索者的位置
    

      

    Q-learning 是一种记录行为值 (Q value) 的方法, 每种在一定状态的行为都会有一个值 Q(s, a), 就是说 行为 a 在 s 状态的值是 Q(s, a)s 在上面的探索者游戏中, 就是 o 所在的地点了. 而每一个地点探索者都能做出两个行为 left/right, 这就是探索者的所有可行的 a 啦.

    如果在某个地点 s1, 探索者计算了他能有的两个行为, a1/a2=left/right, 计算结果是 Q(s1, a1) > Q(s1, a2), 那么探索者就会选择 left 这个行为. 这就是 Q learning 的行为选择简单规则.

    当然我们还会细说更具体的规则. 在之后的教程中, 我们会更加详细得讲解 RL 中的各种方法, 下面的内容, 大家大概看看就行, 有个大概的 RL 概念就行, 知道 RL 的一些关键步骤就行, 这节的算法不用仔细研究.

    预设值 

    这一次需要的模块和参数设置:

    import numpy as np
    import pandas as pd
    import time
    

      

    np.random.seed(2) #创建伪随机数列
    N_STATES = 6 #STATE的个数,1维世界的宽度
    ACTIONS = ['left','right'] #探索者可以选择的2个动作
    EPSILON = 0.9 #选择动作的倾向性(90%的概率选择最优的动作)贪婪度 greedy
    ALPHA = 0.1     # 学习率
    GAMMA = 0.9    # 奖励递减值
    MAX_EPISODES = 13   # 最大回合数
    FRESH_TIME = 0.1    # 移动间隔时间(s)
    

      

      

    Q 表 

    对于 tabular Q learning, 我们必须将所有的 Q values (行为值) 放在 q_table 中, 更新 q_table 也是在更新他的行为准则. q_table 的 index 是所有对应的 state (探索者位置), columns 是对应的 action (探索者行为).

    def build_q_table(n_states, actions):
        table = pd.DataFrame(
            np.zeros((n_states, len(actions))),     # q_table 全 0 初始
            columns=actions,    # columns 对应的是行为名称
        )
        return table
    
    # q_table:
    """
       left  right
    0   0.0    0.0
    1   0.0    0.0
    2   0.0    0.0
    3   0.0    0.0
    4   0.0    0.0
    5   0.0    0.0
    """
    

      

    定义动作 

    接着定义探索者是如何挑选行为的. 这是我们引入 epsilon greedy 的概念. 因为在初始阶段, 随机的探索环境, 往往比固定的行为模式要好, 所以这也是累积经验的阶段, 我们希望探索者不会那么贪婪(greedy). 所以 EPSILON 就是用来控制贪婪程度的值. EPSILON 可以随着探索时间不断提升(越来越贪婪), 不过在这个例子中, 我们就固定成 EPSILON = 0.9, 90% 的时间是选择最优策略, 10% 的时间来探索.

    # 在某个 state 地点, 选择行为
    def choose_action(state, q_table):
        state_actions = q_table.iloc[state, :]  # 选出这个 state 的所有 action 值
        if (np.random.uniform() > EPSILON) or (state_actions.all() == 0):  # 非贪婪 or 或者这个 state 还没有探索过
            action_name = np.random.choice(ACTIONS)
        else:
            action_name = state_actions.argmax()    # 贪婪模式
        return action_name
    

      

    环境反馈 S_, R 

    做出行为后, 环境也要给我们的行为一个反馈, 反馈出下个 state (S_) 和 在上个 state (S) 做出 action (A) 所得到的 reward (R). 这里定义的规则就是, 只有当 o 移动到了 T, 探索者才会得到唯一的一个奖励, 奖励值 R=1, 其他情况都没有奖励.

    def get_env_feedback(S, A):
        # 智能体与环境交互
        if A == 'right':    # 右移
            if S == N_STATES - 2:   # 终止,N_STATE= 6,第五个位置-o---T
                S_ = 'terminal'    # 下一个STATE的位置终止
                R = 1              # 奖励1
            else:
                S_ = S + 1         # 下一个STATE的位置更新
                R = 0              # 奖励0
        else:   # 左移
            R = 0
            if S == 0:
                S_ = S  # 在最左侧位置,下一个S还是这个
            else:
                S_ = S - 1 # 不再最左侧位置,下一个S左移一位
        return S_, R
    

      

      

    环境更新 

    接下来就是环境的更新了, 不用细看.

    def update_env(S, episode, step_counter):
        # 环境更新
        env_list = ['-']*(N_STATES-1) + ['T']   # '---------T' our environment
        if S == 'terminal':
            interaction = 'Episode %s: total_steps = %s' % (episode+1, step_counter)
            print('
    {}'.format(interaction), end='')
            time.sleep(2)
            print('
                                    ', end='')
        else:
            env_list[S] = 'o'
            interaction = ''.join(env_list)
            print('
    {}'.format(interaction), end='')
            time.sleep(FRESH_TIME)
    

      

      

    强化学习主循环 

    最重要的地方就在这里. 你定义的 RL 方法都在这里体现. 在之后的教程中, 我们会更加详细得讲解 RL 中的各种方法, 下面的内容, 大家大概看看就行, 这节内容不用仔细研究.

    def rl():
        q_table = build_q_table(N_STATES, ACTIONS)  # 初始 q table
        for episode in range(MAX_EPISODES):     # 回合
            step_counter = 0
            S = 0   # 回合初始位置
            is_terminated = False   # 是否回合结束
            update_env(S, episode, step_counter)    # 环境更新
            while not is_terminated:
    
                A = choose_action(S, q_table)   # 选行为
                S_, R = get_env_feedback(S, A)  # 实施行为并得到环境的反馈
                q_predict = q_table.loc[S, A]    # 估算的(状态-行为)值
                if S_ != 'terminal':
                    q_target = R + GAMMA * q_table.iloc[S_, :].max()   #  实际的(状态-行为)值 (回合没结束)
                else:
                    q_target = R     #  实际的(状态-行为)值 (回合结束)
                    is_terminated = True    # terminate this episode
    
                q_table.loc[S, A] += ALPHA * (q_target - q_predict)  #  q_table 更新
                S = S_  # 探索者移动到下一个 state
    
                update_env(S, episode, step_counter+1)  # 环境更新
    
                step_counter += 1
        return q_table
    

      写好所有的评估和更新准则后, 我们就能开始训练了, 把探索者丢到环境中, 让它自己去玩吧.

     
    Q-table:
    
           left     right
    0  0.000103  0.005979
    1  0.000004  0.034896
    2  0.000007  0.146238
    3  0.016031  0.358074
    4  0.012253  0.745813
    5  0.000000  0.000000
    
     
     
     

    Q-learning 算法更新

     
     上次我们知道了 RL 之中的 Q-learning 方法是在做什么事, 今天我们就来说说一个更具体的例子. 让探索者学会走迷宫. 黄色的是天堂 (reward 1), 黑色的地狱 (reward -1). 大多数 RL 是由 reward 导向的, 所以定义 reward 是 RL 中比较重要的一点.
     
     
     

    算法 

    Q-learning 算法更新

    整个算法就是一直不断更新 Q table 里的值, 然后再根据新的值来判断要在某个 state 采取怎样的 action. Qlearning 是一个 off-policy 的算法, 因为里面的 max action 让 Q table 的更新可以不基于正在经历的经验(可以是现在学习着很久以前的经验,甚至是学习他人的经验). 不过这一次的例子, 我们没有运用到 off-policy, 而是把 Qlearning 用在了 on-policy 上, 也就是现学现卖, 将现在经历的直接当场学习并运用. On-policy 和 off-policy 的差别我们会在之后的 Deep Q network (off-policy) 学习中见识到. 而之后的教程也会讲到一个 on-policy (Sarsa) 的形式, 我们之后再对比.

    算法的代码形式 

    首先我们先 import 两个模块, maze_env 是我们的环境模块, 已经编写好了, 大家可以直接在这里下载maze_env 模块我们可以不深入研究, 如果你对编辑环境感兴趣, 可以去看看如何使用 python 自带的简单 GUI 模块 tkinter 来编写虚拟环境. 我也有对应的教程maze_env 就是用 tkinter 编写的. 而 RL_brain 这个模块是 RL 的大脑部分, 我们下节会讲

    """
    Reinforcement learning maze example.强化学习迷宫的例子。
    Red rectangle:          explorer.   红色矩形:探险家。
    Black rectangles:       hells       [reward = -1]. 黑色矩形:地狱[奖励 = -1]。
    Yellow bin circle:      paradise    [reward = +1]. 黄色矩形:天堂[奖励 = +1]。
    All other states:       ground      [reward = 0].  其他状态:平地[奖励 = 0]
    This script is the main part which controls the update method of this example.
    The RL is in RL_brain.py. 该脚本是控制本例更新方法的主要部分。RL在RL_brain.py中。
    View more on my tutorial page: https://morvanzhou.github.io/tutorials/查看更多关于我的教程页面:https://morvanzhou.github.io/tutorials/
    """
    
    from maze_env import Maze
    from RL_brain import QLearningTable
    
    
    def update():
        for episode in range(100):
            # 初始观测
            observation = env.reset()
    
            while True:
                # 刷新环境
                env.render()
    
                # RL根据观察选择行动
                action = RL.choose_action(str(observation))
    
                # RL采取行动并得到下一个观察和奖励,done表示跳进地狱或者拿到宝藏
                observation_, reward, done = env.step(action)
    
                # RL 从这次的行动后的变化中学习
                RL.learn(str(observation), action, reward, str(observation_))
    
                # 更新环境
                observation = observation_
    
                # break while loop when end of this episode
                if done:
                    break
    
        # end of game
        print('game over')
        env.destroy()
    
    if __name__ == "__main__":
        env = Maze()
        RL = QLearningTable(actions=list(range(env.n_actions)))
    
        env.after(100, update)
        env.mainloop()
    

      

      

    Q-learning 思维决策

    代码主结构 

    与上回不一样的地方是, 我们将要以一个 class 形式定义 Q learning, 并把这种 tabular q learning 方法叫做 QLearningTable.

    class QLearningTable:
        # 初始化
        def __init__(self, actions, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9):
    
        # 选行为
        def choose_action(self, observation):
    
        # 学习更新参数
        def learn(self, s, a, r, s_):
    
        # 检测 state 是否存在
        def check_state_exist(self, state):
    

      

    预设值 

    初始的参数意义不会在这里提及了, 请参考这个快速了解通道 机器学习系列-Q learning

    import numpy as np
    import pandas as pd
    
    
    class QLearningTable:
        def __init__(self, actions, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9):
            self.actions = actions  # a list
            self.lr = learning_rate # 学习率
            self.gamma = reward_decay   # 奖励衰减
            self.epsilon = e_greedy     # 贪婪度
            self.q_table = pd.DataFrame(columns=self.actions, dtype=np.float64)   # 初始 q_table
    

      

    决定行为 

    这里是定义如何根据所在的 state, 或者是在这个 state 上的 观测值 (observation) 来决策.

    def choose_action(self, observation):
            self.check_state_exist(observation) # 检测本 state 是否在 q_table 中存在(见后面标题内容)
    
            # 选择 action
            if np.random.uniform() < self.epsilon:  # 选择 Q value 最高的 action
                state_action = self.q_table.loc[observation, :]
    
                # 同一个 state, 可能会有多个相同的 Q action value, 所以我们乱序一下
                action = np.random.choice(state_action[state_action == np.max(state_action)].index)
    
            else:   # 随机选择 action
                action = np.random.choice(self.actions)
    
            return action
    

        

    学习 

    上一个简单的 q learning 例子一样, 我们根据是否是 terminal state (回合终止符) 来判断应该如何更行 q_table. 更新的方式是不是很熟悉呢:

    update = self.lr * (q_target - q_predict)

    这可以理解成神经网络中的更新方式, 学习率 * (真实值 - 预测值). 将判断误差传递回去, 有着和神经网络更新的异曲同工之处.

       

      def learn(self, s, a, r, s_):
            self.check_state_exist(s_)  # 检测 q_table 中是否存在 s_ (见后面标题内容)
            q_predict = self.q_table.loc[s, a]
            if s_ != 'terminal':
                q_target = r + self.gamma * self.q_table.loc[s_, :].max()  # 下个 state 不是 终止符
            else:
                q_target = r  # 下个 state 是终止符
            self.q_table.loc[s, a] += self.lr * (q_target - q_predict)  # 更新对应的 state-action 值
    

      

    检测 state 是否存在 

    这个功能就是检测 q_table 中有没有当前 state 的步骤了, 如果还没有当前 state, 那我我们就插入一组全 0 数据, 当做这个 state 的所有 action 初始 values.

        def check_state_exist(self, state):
            if state not in self.q_table.index:
                # append new state to q table
                self.q_table = self.q_table.append(
                    pd.Series(
                        [0]*len(self.actions),
                        index=self.q_table.columns,
                        name=state,
                    )
                )
    

      

    完整代码:

    """
    RL_brain.py
    This part of code is the Q learning brain, which is a brain of the agent.
    All decisions are made in here.
    View more on my tutorial page: https://morvanzhou.github.io/tutorials/
    这部分代码是Q学习大脑,它是agent的大脑。
    所有的决定都在这里做出。
    查看更多关于我的教程页面:https://morvanzhou.github.io/tutorials/
    """
    
    import numpy as np
    import pandas as pd
    
    
    class QLearningTable:
        # 初始化各项参数
        def __init__(self, actions, learning_rate = 0.01, reward_decay = 0.9, e_greedy = 0.9):
            self.actions = actions  # a list
            self.lr = learning_rate
            self.gamma = reward_decay
            self.epsilon = e_greedy
            self.q_table = pd.DataFrame(columns = self.actions, dtype = np.float64)
            '''
            Q-table
                        action-1 action-2 action-3 action-4  ...
                state1   reward   reward   reward   reward   ...
                state2   reward   reward   reward   reward   ...
                state3   reward   reward   reward   reward   ...
                ...       ...     ...     ...     ...        ...
            '''
    
        def choose_action(self, observation):
            # 检验观察是否在q-table中,如果不在,则加入
            self.check_state_exist(observation)
            # action selection
            if np.random.uniform() < self.epsilon:  # 如果在ε范围内,则选择最好的action
                # choose best action
                state_action = self.q_table.loc[observation, :]
                # some actions may have the same value, randomly choose on in these actions
                # 如果2个最优的action相等,那么在这两个action里随机选择一个。
                action = np.random.choice(state_action[state_action == np.max(state_action)].index)
            else:  # 如果不在,则随机选择
                # choose random action
                action = np.random.choice(self.actions)  # action是0,1,2,3
    
            return action
    
        def learn(self, s, a, r, s_):  # state,action,reward,下一个state
            self.check_state_exist(s_) # 看看下一个state是否存在。
            q_predict = self.q_table.loc[s, a]
            if s_ != 'terminal':
                q_target = r + self.gamma * self.q_table.loc[s_, :].max()  # next state is not terminal
            else:
                q_target = r  # next state is terminal
            self.q_table.loc[s, a] += self.lr * (q_target - q_predict)  # update
    
        def check_state_exist(self, state):
            if state not in self.q_table.index:
                # append new state to q table
                self.q_table = self.q_table.append(
                    pd.Series(
                        [0] * len(self.actions),
                        index = self.q_table.columns,
                        name = state,
                    )
                )
    

        

    """
    run_this.py
    Reinforcement learning maze example.强化学习迷宫的例子。
    Red rectangle:          explorer.   红色矩形:探险家。
    Black rectangles:       hells       [reward = -1]. 黑色矩形:地狱[奖励 = -1]。
    Yellow bin circle:      paradise    [reward = +1]. 黄色矩形:天堂[奖励 = +1]。
    All other states:       ground      [reward = 0].  其他状态:平地[奖励 = 0]
    This script is the main part which controls the update method of this example.
    The RL is in RL_brain.py. 该脚本是控制本例更新方法的主要部分。RL在RL_brain.py中。
    View more on my tutorial page: https://morvanzhou.github.io/tutorials/查看更多关于我的教程页面:https://morvanzhou.github.io/tutorials/
    """
    
    from maze_env import Maze
    from RL_brain import QLearningTable
    
    
    def update():
        for episode in range(100):
            # 初始观测
            observation = env.reset()
    
            while True:
                # 刷新环境
                env.render()
    
                # RL根据观察选择行动
                action = RL.choose_action(str(observation))
    
                # RL采取行动并得到下一个观察和奖励,done表示跳进地狱或者拿到宝藏
                observation_, reward, done = env.step(action)
    
                # RL 从这次的行动后的变化中学习
                RL.learn(str(observation), action, reward, str(observation_))
    
                # 更新环境
                observation = observation_
    
                # break while loop when end of this episode
                if done:
                    break
    
        # end of game
        print('game over')
        env.destroy()
    
    if __name__ == "__main__":
        env = Maze()
        RL = QLearningTable(actions=list(range(env.n_actions)))
    
        env.after(100, update)
        env.mainloop()
    

      

    """
    maze_env.py
    Reinforcement learning maze example.
    Red rectangle:          explorer.
    Black rectangles:       hells       [reward = -1].
    Yellow bin circle:      paradise    [reward = +1].
    All other states:       ground      [reward = 0].
    This script is the environment part of this example. The RL is in RL_brain.py.
    View more on my tutorial page: https://morvanzhou.github.io/tutorials/
    """
    
    
    import numpy as np
    import time
    import sys
    if sys.version_info.major == 2:
        import Tkinter as tk
    else:
        import tkinter as tk
    
    
    UNIT = 40   # pixels
    MAZE_H = 4  # grid height
    MAZE_W = 4  # grid width
    
    
    class Maze(tk.Tk, object):
        def __init__(self):
            super(Maze, self).__init__()
            self.action_space = ['u', 'd', 'l', 'r']
            self.n_actions = len(self.action_space)
            self.title('maze')
            self.geometry('{0}x{1}'.format(MAZE_H * UNIT, MAZE_H * UNIT))
            self._build_maze()
    
        def _build_maze(self):
            self.canvas = tk.Canvas(self, bg='white',
                               height=MAZE_H * UNIT,
                               width=MAZE_W * UNIT)
    
            # create grids
            for c in range(0, MAZE_W * UNIT, UNIT):
                x0, y0, x1, y1 = c, 0, c, MAZE_W * UNIT
                self.canvas.create_line(x0, y0, x1, y1)
            for r in range(0, MAZE_H * UNIT, UNIT):
                x0, y0, x1, y1 = 0, r, MAZE_H * UNIT, r
                self.canvas.create_line(x0, y0, x1, y1)
    
            # create origin
            origin = np.array([20, 20])
    
            # hell
            hell1_center = origin + np.array([UNIT * 2, UNIT])
            self.hell1 = self.canvas.create_rectangle(
                hell1_center[0] - 15, hell1_center[1] - 15,
                hell1_center[0] + 15, hell1_center[1] + 15,
                fill='black')
            # hell
            hell2_center = origin + np.array([UNIT, UNIT * 2])
            self.hell2 = self.canvas.create_rectangle(
                hell2_center[0] - 15, hell2_center[1] - 15,
                hell2_center[0] + 15, hell2_center[1] + 15,
                fill='black')
    
            # create oval
            oval_center = origin + UNIT * 2
            self.oval = self.canvas.create_oval(
                oval_center[0] - 15, oval_center[1] - 15,
                oval_center[0] + 15, oval_center[1] + 15,
                fill='yellow')
    
            # create red rect
            self.rect = self.canvas.create_rectangle(
                origin[0] - 15, origin[1] - 15,
                origin[0] + 15, origin[1] + 15,
                fill='red')
    
            # pack all
            self.canvas.pack()
    
        def reset(self):
            self.update()
            time.sleep(0.5)
            self.canvas.delete(self.rect)
            origin = np.array([20, 20])
            self.rect = self.canvas.create_rectangle(
                origin[0] - 15, origin[1] - 15,
                origin[0] + 15, origin[1] + 15,
                fill='red')
            # return observation
            return self.canvas.coords(self.rect)
    
        def step(self, action):
            s = self.canvas.coords(self.rect)
            base_action = np.array([0, 0])
            if action == 0:   # up
                if s[1] > UNIT:
                    base_action[1] -= UNIT
            elif action == 1:   # down
                if s[1] < (MAZE_H - 1) * UNIT:
                    base_action[1] += UNIT
            elif action == 2:   # right
                if s[0] < (MAZE_W - 1) * UNIT:
                    base_action[0] += UNIT
            elif action == 3:   # left
                if s[0] > UNIT:
                    base_action[0] -= UNIT
    
            self.canvas.move(self.rect, base_action[0], base_action[1])  # move agent
    
            s_ = self.canvas.coords(self.rect)  # next state
    
            # reward function
            if s_ == self.canvas.coords(self.oval):
                reward = 1
                done = True
                s_ = 'terminal'
            elif s_ in [self.canvas.coords(self.hell1), self.canvas.coords(self.hell2)]:
                reward = -1
                done = True
                s_ = 'terminal'
            else:
                reward = 0
                done = False
    
            return s_, reward, done
    
        def render(self):
            time.sleep(0.1)
            self.update()
    
    
    def update():
        for t in range(10):
            s = env.reset()
            while True:
                env.render()
                a = 1
                s, r, done = env.step(a)
                if done:
                    break
    
    if __name__ == '__main__':
        env = Maze()
        env.after(100, update)
        env.mainloop()
    

      

     运行结果:

    动态无法上传录像。

  • 相关阅读:
    全网最深分析SpringBoot MVC自动配置失效的原因
    这一次搞懂Spring代理创建及AOP链式调用过程
    这一次搞懂SpringBoot核心原理(自动配置、事件驱动、Condition)
    这一次搞懂Spring Web零xml配置原理以及父子容器关系
    这一次搞懂SpringMVC原理
    这一次搞懂Spring事务是如何传播的
    Redis系列(八):发布与订阅
    【深度思考】JDK8中日期类型该如何使用?
    【Redis面试题】如何使用Redis实现微信步数排行榜?
    Nacos系列(一):Nacos环境安装及Hello World示例
  • 原文地址:https://www.cnblogs.com/Mjerry/p/9951707.html
Copyright © 2011-2022 走看看