Use Closed-Form Policy to Play FrozenLake-v1¶

In [1]:
import sys
import logging
import itertools

import numpy as np
np.random.seed(0)
import gym

logging.basicConfig(level=logging.INFO,
        format='%(asctime)s [%(levelname)s] %(message)s',
        stream=sys.stdout, datefmt='%H:%M:%S')
In [2]:
env = gym.make('FrozenLake-v1')
for key in vars(env.spec):
    logging.info('%s: %s', key, vars(env.spec)[key])
for key in vars(env.unwrapped):
    logging.info('%s: %s', key, vars(env.unwrapped)[key])
00:00:00 [INFO] id: FrozenLake-v1
00:00:00 [INFO] entry_point: gym.envs.toy_text:FrozenLakeEnv
00:00:00 [INFO] reward_threshold: 0.7
00:00:00 [INFO] nondeterministic: False
00:00:00 [INFO] max_episode_steps: 100
00:00:00 [INFO] order_enforce: True
00:00:00 [INFO] _kwargs: {'map_name': '4x4'}
00:00:00 [INFO] _env_name: FrozenLake
00:00:00 [INFO] desc: [[b'S' b'F' b'F' b'F']
 [b'F' b'H' b'F' b'H']
 [b'F' b'F' b'F' b'H']
 [b'H' b'F' b'F' b'G']]
00:00:00 [INFO] nrow: 4
00:00:00 [INFO] ncol: 4
00:00:00 [INFO] reward_range: (0, 1)
00:00:00 [INFO] P: {0: {0: [(0.3333333333333333, 0, 0.0, False), (0.3333333333333333, 0, 0.0, False), (0.3333333333333333, 4, 0.0, False)], 1: [(0.3333333333333333, 0, 0.0, False), (0.3333333333333333, 4, 0.0, False), (0.3333333333333333, 1, 0.0, False)], 2: [(0.3333333333333333, 4, 0.0, False), (0.3333333333333333, 1, 0.0, False), (0.3333333333333333, 0, 0.0, False)], 3: [(0.3333333333333333, 1, 0.0, False), (0.3333333333333333, 0, 0.0, False), (0.3333333333333333, 0, 0.0, False)]}, 1: {0: [(0.3333333333333333, 1, 0.0, False), (0.3333333333333333, 0, 0.0, False), (0.3333333333333333, 5, 0.0, True)], 1: [(0.3333333333333333, 0, 0.0, False), (0.3333333333333333, 5, 0.0, True), (0.3333333333333333, 2, 0.0, False)], 2: [(0.3333333333333333, 5, 0.0, True), (0.3333333333333333, 2, 0.0, False), (0.3333333333333333, 1, 0.0, False)], 3: [(0.3333333333333333, 2, 0.0, False), (0.3333333333333333, 1, 0.0, False), (0.3333333333333333, 0, 0.0, False)]}, 2: {0: [(0.3333333333333333, 2, 0.0, False), (0.3333333333333333, 1, 0.0, False), (0.3333333333333333, 6, 0.0, False)], 1: [(0.3333333333333333, 1, 0.0, False), (0.3333333333333333, 6, 0.0, False), (0.3333333333333333, 3, 0.0, False)], 2: [(0.3333333333333333, 6, 0.0, False), (0.3333333333333333, 3, 0.0, False), (0.3333333333333333, 2, 0.0, False)], 3: [(0.3333333333333333, 3, 0.0, False), (0.3333333333333333, 2, 0.0, False), (0.3333333333333333, 1, 0.0, False)]}, 3: {0: [(0.3333333333333333, 3, 0.0, False), (0.3333333333333333, 2, 0.0, False), (0.3333333333333333, 7, 0.0, True)], 1: [(0.3333333333333333, 2, 0.0, False), (0.3333333333333333, 7, 0.0, True), (0.3333333333333333, 3, 0.0, False)], 2: [(0.3333333333333333, 7, 0.0, True), (0.3333333333333333, 3, 0.0, False), (0.3333333333333333, 3, 0.0, False)], 3: [(0.3333333333333333, 3, 0.0, False), (0.3333333333333333, 3, 0.0, False), (0.3333333333333333, 2, 0.0, False)]}, 4: {0: [(0.3333333333333333, 0, 0.0, False), (0.3333333333333333, 4, 0.0, False), (0.3333333333333333, 8, 0.0, False)], 1: [(0.3333333333333333, 4, 0.0, False), (0.3333333333333333, 8, 0.0, False), (0.3333333333333333, 5, 0.0, True)], 2: [(0.3333333333333333, 8, 0.0, False), (0.3333333333333333, 5, 0.0, True), (0.3333333333333333, 0, 0.0, False)], 3: [(0.3333333333333333, 5, 0.0, True), (0.3333333333333333, 0, 0.0, False), (0.3333333333333333, 4, 0.0, False)]}, 5: {0: [(1.0, 5, 0, True)], 1: [(1.0, 5, 0, True)], 2: [(1.0, 5, 0, True)], 3: [(1.0, 5, 0, True)]}, 6: {0: [(0.3333333333333333, 2, 0.0, False), (0.3333333333333333, 5, 0.0, True), (0.3333333333333333, 10, 0.0, False)], 1: [(0.3333333333333333, 5, 0.0, True), (0.3333333333333333, 10, 0.0, False), (0.3333333333333333, 7, 0.0, True)], 2: [(0.3333333333333333, 10, 0.0, False), (0.3333333333333333, 7, 0.0, True), (0.3333333333333333, 2, 0.0, False)], 3: [(0.3333333333333333, 7, 0.0, True), (0.3333333333333333, 2, 0.0, False), (0.3333333333333333, 5, 0.0, True)]}, 7: {0: [(1.0, 7, 0, True)], 1: [(1.0, 7, 0, True)], 2: [(1.0, 7, 0, True)], 3: [(1.0, 7, 0, True)]}, 8: {0: [(0.3333333333333333, 4, 0.0, False), (0.3333333333333333, 8, 0.0, False), (0.3333333333333333, 12, 0.0, True)], 1: [(0.3333333333333333, 8, 0.0, False), (0.3333333333333333, 12, 0.0, True), (0.3333333333333333, 9, 0.0, False)], 2: [(0.3333333333333333, 12, 0.0, True), (0.3333333333333333, 9, 0.0, False), (0.3333333333333333, 4, 0.0, False)], 3: [(0.3333333333333333, 9, 0.0, False), (0.3333333333333333, 4, 0.0, False), (0.3333333333333333, 8, 0.0, False)]}, 9: {0: [(0.3333333333333333, 5, 0.0, True), (0.3333333333333333, 8, 0.0, False), (0.3333333333333333, 13, 0.0, False)], 1: [(0.3333333333333333, 8, 0.0, False), (0.3333333333333333, 13, 0.0, False), (0.3333333333333333, 10, 0.0, False)], 2: [(0.3333333333333333, 13, 0.0, False), (0.3333333333333333, 10, 0.0, False), (0.3333333333333333, 5, 0.0, True)], 3: [(0.3333333333333333, 10, 0.0, False), (0.3333333333333333, 5, 0.0, True), (0.3333333333333333, 8, 0.0, False)]}, 10: {0: [(0.3333333333333333, 6, 0.0, False), (0.3333333333333333, 9, 0.0, False), (0.3333333333333333, 14, 0.0, False)], 1: [(0.3333333333333333, 9, 0.0, False), (0.3333333333333333, 14, 0.0, False), (0.3333333333333333, 11, 0.0, True)], 2: [(0.3333333333333333, 14, 0.0, False), (0.3333333333333333, 11, 0.0, True), (0.3333333333333333, 6, 0.0, False)], 3: [(0.3333333333333333, 11, 0.0, True), (0.3333333333333333, 6, 0.0, False), (0.3333333333333333, 9, 0.0, False)]}, 11: {0: [(1.0, 11, 0, True)], 1: [(1.0, 11, 0, True)], 2: [(1.0, 11, 0, True)], 3: [(1.0, 11, 0, True)]}, 12: {0: [(1.0, 12, 0, True)], 1: [(1.0, 12, 0, True)], 2: [(1.0, 12, 0, True)], 3: [(1.0, 12, 0, True)]}, 13: {0: [(0.3333333333333333, 9, 0.0, False), (0.3333333333333333, 12, 0.0, True), (0.3333333333333333, 13, 0.0, False)], 1: [(0.3333333333333333, 12, 0.0, True), (0.3333333333333333, 13, 0.0, False), (0.3333333333333333, 14, 0.0, False)], 2: [(0.3333333333333333, 13, 0.0, False), (0.3333333333333333, 14, 0.0, False), (0.3333333333333333, 9, 0.0, False)], 3: [(0.3333333333333333, 14, 0.0, False), (0.3333333333333333, 9, 0.0, False), (0.3333333333333333, 12, 0.0, True)]}, 14: {0: [(0.3333333333333333, 10, 0.0, False), (0.3333333333333333, 13, 0.0, False), (0.3333333333333333, 14, 0.0, False)], 1: [(0.3333333333333333, 13, 0.0, False), (0.3333333333333333, 14, 0.0, False), (0.3333333333333333, 15, 1.0, True)], 2: [(0.3333333333333333, 14, 0.0, False), (0.3333333333333333, 15, 1.0, True), (0.3333333333333333, 10, 0.0, False)], 3: [(0.3333333333333333, 15, 1.0, True), (0.3333333333333333, 10, 0.0, False), (0.3333333333333333, 13, 0.0, False)]}, 15: {0: [(1.0, 15, 0, True)], 1: [(1.0, 15, 0, True)], 2: [(1.0, 15, 0, True)], 3: [(1.0, 15, 0, True)]}}
00:00:00 [INFO] isd: [1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
00:00:00 [INFO] lastaction: None
00:00:00 [INFO] nS: 16
00:00:00 [INFO] nA: 4
00:00:00 [INFO] action_space: Discrete(4)
00:00:00 [INFO] observation_space: Discrete(16)
00:00:00 [INFO] np_random: RandomState(MT19937)
00:00:00 [INFO] s: 0
00:00:00 [INFO] spec: EnvSpec(FrozenLake-v1)
In [3]:
class ClosedFormAgent:
    def __init__(self, env):
        state_n, action_n = env.observation_space.n, env.action_space.n
        v = np.zeros((env.spec.max_episode_steps+1, state_n))
        q = np.zeros((env.spec.max_episode_steps+1, state_n, action_n))
        pi = np.zeros((env.spec.max_episode_steps+1, state_n))
        for t in range(env.spec.max_episode_steps-1, -1, -1):
            for s in range(state_n):
                for a in range(action_n):
                    for p, next_s, r, d in env.P[s][a]:
                        q[t, s, a] += p * (r + (1. - float(d)) * v[t+1, next_s])
                v[t, s] = q[t, s].max()
                pi[t, s] = q[t, s].argmax()
        self.pi = pi

    def reset(self, mode=None):
        self.t = 0

    def step(self, observation, reward, terminated):
        action = self.pi[self.t, observation]
        self.t += 1
        return action

    def close(self):
        pass


agent = ClosedFormAgent(env)
In [4]:
def play_episode(env, agent, seed=None, mode=None, render=False):
    observation, _ = env.reset(seed=seed)
    reward, terminated, truncated = 0., False, False
    agent.reset(mode=mode)
    episode_reward, elapsed_steps = 0., 0
    while True:
        action = agent.step(observation, reward, terminated)
        if render:
            env.render()
        if terminated or truncated:
            break
        observation, reward, terminated, truncated, _ = env.step(action)
        episode_reward += reward
        elapsed_steps += 1
    agent.close()
    return episode_reward, elapsed_steps


logging.info('==== test ====')
episode_rewards = []
for episode in range(100):
    episode_reward, elapsed_steps = play_episode(env, agent)
    episode_rewards.append(episode_reward)
    logging.info('test episode %d: reward = %.2f, steps = %d',
            episode, episode_reward, elapsed_steps)
logging.info('average episode reward = %.2f ± %.2f',
        np.mean(episode_rewards), np.std(episode_rewards))
00:00:00 [INFO] ==== test ====
00:00:00 [INFO] test episode 0: reward = 1.00, steps = 14
00:00:00 [INFO] test episode 1: reward = 1.00, steps = 11
00:00:00 [INFO] test episode 2: reward = 1.00, steps = 31
00:00:00 [INFO] test episode 3: reward = 0.00, steps = 14
00:00:00 [INFO] test episode 4: reward = 0.00, steps = 9
00:00:00 [INFO] test episode 5: reward = 1.00, steps = 93
00:00:00 [INFO] test episode 6: reward = 1.00, steps = 100
00:00:00 [INFO] test episode 7: reward = 1.00, steps = 34
00:00:00 [INFO] test episode 8: reward = 1.00, steps = 86
00:00:00 [INFO] test episode 9: reward = 1.00, steps = 26
00:00:00 [INFO] test episode 10: reward = 0.00, steps = 16
00:00:00 [INFO] test episode 11: reward = 1.00, steps = 57
00:00:00 [INFO] test episode 12: reward = 0.00, steps = 98
00:00:00 [INFO] test episode 13: reward = 0.00, steps = 10
00:00:00 [INFO] test episode 14: reward = 0.00, steps = 100
00:00:00 [INFO] test episode 15: reward = 1.00, steps = 7
00:00:00 [INFO] test episode 16: reward = 1.00, steps = 97
00:00:00 [INFO] test episode 17: reward = 1.00, steps = 26
00:00:00 [INFO] test episode 18: reward = 1.00, steps = 58
00:00:00 [INFO] test episode 19: reward = 1.00, steps = 27
00:00:00 [INFO] test episode 20: reward = 0.00, steps = 49
00:00:00 [INFO] test episode 21: reward = 0.00, steps = 85
00:00:00 [INFO] test episode 22: reward = 0.00, steps = 73
00:00:00 [INFO] test episode 23: reward = 1.00, steps = 25
00:00:00 [INFO] test episode 24: reward = 1.00, steps = 16
00:00:00 [INFO] test episode 25: reward = 1.00, steps = 24
00:00:00 [INFO] test episode 26: reward = 1.00, steps = 41
00:00:00 [INFO] test episode 27: reward = 1.00, steps = 27
00:00:00 [INFO] test episode 28: reward = 1.00, steps = 29
00:00:00 [INFO] test episode 29: reward = 1.00, steps = 36
00:00:00 [INFO] test episode 30: reward = 1.00, steps = 36
00:00:00 [INFO] test episode 31: reward = 1.00, steps = 55
00:00:00 [INFO] test episode 32: reward = 1.00, steps = 27
00:00:00 [INFO] test episode 33: reward = 1.00, steps = 80
00:00:00 [INFO] test episode 34: reward = 1.00, steps = 11
00:00:00 [INFO] test episode 35: reward = 1.00, steps = 48
00:00:00 [INFO] test episode 36: reward = 0.00, steps = 79
00:00:00 [INFO] test episode 37: reward = 1.00, steps = 70
00:00:00 [INFO] test episode 38: reward = 0.00, steps = 100
00:00:00 [INFO] test episode 39: reward = 1.00, steps = 48
00:00:00 [INFO] test episode 40: reward = 1.00, steps = 11
00:00:00 [INFO] test episode 41: reward = 1.00, steps = 29
00:00:00 [INFO] test episode 42: reward = 1.00, steps = 84
00:00:00 [INFO] test episode 43: reward = 0.00, steps = 100
00:00:00 [INFO] test episode 44: reward = 1.00, steps = 27
00:00:00 [INFO] test episode 45: reward = 1.00, steps = 81
00:00:00 [INFO] test episode 46: reward = 1.00, steps = 8
00:00:00 [INFO] test episode 47: reward = 1.00, steps = 81
00:00:00 [INFO] test episode 48: reward = 1.00, steps = 21
00:00:00 [INFO] test episode 49: reward = 1.00, steps = 73
00:00:00 [INFO] test episode 50: reward = 1.00, steps = 46
00:00:00 [INFO] test episode 51: reward = 1.00, steps = 18
00:00:00 [INFO] test episode 52: reward = 1.00, steps = 13
00:00:00 [INFO] test episode 53: reward = 0.00, steps = 26
00:00:00 [INFO] test episode 54: reward = 1.00, steps = 63
00:00:00 [INFO] test episode 55: reward = 1.00, steps = 24
00:00:00 [INFO] test episode 56: reward = 0.00, steps = 100
00:00:00 [INFO] test episode 57: reward = 1.00, steps = 46
00:00:00 [INFO] test episode 58: reward = 0.00, steps = 74
00:00:00 [INFO] test episode 59: reward = 1.00, steps = 28
00:00:00 [INFO] test episode 60: reward = 1.00, steps = 34
00:00:00 [INFO] test episode 61: reward = 1.00, steps = 77
00:00:00 [INFO] test episode 62: reward = 1.00, steps = 72
00:00:00 [INFO] test episode 63: reward = 1.00, steps = 22
00:00:00 [INFO] test episode 64: reward = 1.00, steps = 35
00:00:00 [INFO] test episode 65: reward = 1.00, steps = 62
00:00:00 [INFO] test episode 66: reward = 0.00, steps = 35
00:00:00 [INFO] test episode 67: reward = 1.00, steps = 27
00:00:00 [INFO] test episode 68: reward = 0.00, steps = 22
00:00:00 [INFO] test episode 69: reward = 1.00, steps = 48
00:00:00 [INFO] test episode 70: reward = 1.00, steps = 22
00:00:00 [INFO] test episode 71: reward = 0.00, steps = 100
00:00:00 [INFO] test episode 72: reward = 0.00, steps = 100
00:00:00 [INFO] test episode 73: reward = 1.00, steps = 30
00:00:00 [INFO] test episode 74: reward = 1.00, steps = 34
00:00:00 [INFO] test episode 75: reward = 1.00, steps = 35
00:00:00 [INFO] test episode 76: reward = 1.00, steps = 6
00:00:00 [INFO] test episode 77: reward = 1.00, steps = 25
00:00:00 [INFO] test episode 78: reward = 0.00, steps = 45
00:00:00 [INFO] test episode 79: reward = 0.00, steps = 39
00:00:00 [INFO] test episode 80: reward = 1.00, steps = 55
00:00:00 [INFO] test episode 81: reward = 0.00, steps = 12
00:00:00 [INFO] test episode 82: reward = 1.00, steps = 16
00:00:00 [INFO] test episode 83: reward = 1.00, steps = 37
00:00:00 [INFO] test episode 84: reward = 1.00, steps = 97
00:00:01 [INFO] test episode 85: reward = 1.00, steps = 65
00:00:01 [INFO] test episode 86: reward = 1.00, steps = 48
00:00:01 [INFO] test episode 87: reward = 0.00, steps = 100
00:00:01 [INFO] test episode 88: reward = 0.00, steps = 31
00:00:01 [INFO] test episode 89: reward = 1.00, steps = 71
00:00:01 [INFO] test episode 90: reward = 1.00, steps = 75
00:00:01 [INFO] test episode 91: reward = 0.00, steps = 15
00:00:01 [INFO] test episode 92: reward = 1.00, steps = 52
00:00:01 [INFO] test episode 93: reward = 1.00, steps = 24
00:00:01 [INFO] test episode 94: reward = 1.00, steps = 37
00:00:01 [INFO] test episode 95: reward = 1.00, steps = 17
00:00:01 [INFO] test episode 96: reward = 1.00, steps = 14
00:00:01 [INFO] test episode 97: reward = 1.00, steps = 11
00:00:01 [INFO] test episode 98: reward = 1.00, steps = 29
00:00:01 [INFO] test episode 99: reward = 1.00, steps = 13
00:00:01 [INFO] average episode reward = 0.75 ± 0.43
In [5]:
env.close()