Stable Baselines/用户向导/开始
大多数强化学习算法包都试图采用sklearn风格语法。
下面是一个简单的案例,展示如何在Cartpole环境中训练和运行PPO2.
import gymfrom stable_baselines.common.policies import MlpPolicyfrom stable_baselines.common.vec_env import DummyVecEnvfrom stable_baselines import PPO2env = gym.make('CartPole-v1')env = DummyVecEnv([lambda: env]) # The algorithms require a vectorized environment to runmodel = PPO2(MlpPolicy, env, verbose=1)model.learn(total_timesteps=10000)obs = env.reset()for i in range(1000):action, _states = model.predict(obs)obs, rewards, dones, info = env.step(action)env.render()
或者,如果环境已在Gym注册、策略也已注册,仅仅用liner训练一个模型:
# 用一行代码定义并训练一个RL agentfrom stable_baselines import PPO2model = PPO2('MlpPolicy', 'CartPole-v1').learn(10000)

