-
0 votesanswersviews
openAi健身房为python linux debain
我有openAi健身房的问题,我用命令安装它: > pip install gym 但是当我试图运行名为cig3.py的程序时: import gym env = gym.make('CartPole-v0') env.reset() for _ in range(1000): env.render() env.step(env.action_space.sample())... -
0 votesanswersviews
在Julia中无法使用PyCall导入OpenAI“gym”模块
我尝试使用PyCall.jl库导入julia里面的python健身模块 . 为了实现它,我应用了以下内容: $ julia julia> using PyCall julia> gym = pyimport("gym") ERROR: PyError (:PyImport_ImportModule) <type 'exceptions.ImportErro... -
1 votesanswersviews
当我的计算机无法识别或定位健身房时,如何功能性地使用OpenAI Gym?
我一直在尝试使用健身房几周 . 但是,我没有成功 . 我正在尝试运行CartPole的这个实现,但是我收到了一个返回错误: NotImplementedError:abstract 据我所知,我已经安装了健身房 . 但是,无论出于何种原因,我在尝试访问它时没有任何功能 . import gym env = gym.make('CartPole-v0') for i_episode in ra... -
0 votesanswersviews
如何列出OpenAI健身房中每个州的可能继承状态? (严格用于普通MDP)
有没有办法迭代每个状态,强制环境进入该状态,然后采取一个步骤然后使用返回的“info”字典来查看所有可能的后继状态是什么? 或者更简单的方法来恢复每个州的所有可能的后继状态,也许隐藏在某个地方? 我在网上看到一些名为MuJoKo的东西有类似set_state的功能,但是我不想创建一个新环境,我只想设置openAi gym已经提供的状态 . 上下文:尝试实现拓扑顺序值迭代,这需要创建一个图形,其中每... -
0 votesanswersviews
OpenAI健身房0.10.9 'module'对象没有属性'benchmark_spec'
benchmark = gym.benchmark_spec('Atari40M') AttributeError:'module'对象没有属性'benchmark_spec' 我刚拿到健身房这个错误-0.10.9 . 任何的想法?谢谢 -
1 votesanswersviews
如何撤消OpenAI Gym中的操作?
在OpenAI Gym中,我想知道同一状态下不同操作的下一个状态 . 例如,我想得到s_1,s_2我的环境的动态是: (s, a_1) -> s_1, (s, a_2) -> s_2 我找不到一个撤消动作的方法,或者在不改变环境的情况下向我显示下一个状态 . 有什么明显的东西让我失踪吗? 如果它有帮助,我这样做是为了区分LQR的动态和奖励,并使用InvertedPendulum环境 ... -
4 votesanswersviews
为什么在200个步骤之后完成剧集(健身房环境MountainCar)?
在Python中使用OpenAI-gym的MountainCar-v0环境时,经过200个步骤后,完成的值将成立 . 这是为什么?由于未达到目标状态,因此不应该进行这一集 . import gym env = gym.make('MountainCar-v0') env.reset() for _ in range(300): env.render() res = env.step... -
2 votesanswersviews
OpenAI gym:如何获得完整的ATARI环境列表
我安装了OpenAI gym 和ATARI环境 . 我知道我可以在_732717中找到所有ATARI游戏,但有没有办法在Python中执行此操作, without 打印任何其他环境(例如,不是经典的控制环境) -
0 votesanswersviews
OpenAI健身房突破 - v0“停顿”
在OpenAI健身房环境中进行训练时,我认为环境有时会“停止” . 对于连续的许多帧,没有球可见/停止产卵 . 这是健身房环境中的错误吗?这是游戏Breakout-v0的一部分吗? 我也想知道Breakout-v0中可能的动作是什么 . 我有点想通了: 0 - 什么都不做/站着不动? 1 - 什么都不做/站着不动? 2 - 向右边施加“武力”? 3 - 向左边施加“武力”? 编辑:对于想知... -
27 votesanswersviews
是否有可能在OpenAI中创建一个新的健身房环境?
我有一个任务,要制作一个AI代理,学习使用ML玩视频游戏 . 我想在 OpenAI 中创建一个新环境,因为我不想在现有环境中工作 . 我该如何创建一个新的环境 . 另外,有没有其他方法可以让我开始制作AI Agent来播放特定的视频游戏而无需 OpenAI 的帮助?我是初学者,所以任何帮助/起跑方向都将受到赞赏 . -
0 votesanswersviews
强化学习中的无效动作
我已经为类似于http://curvefever.io/的游戏实施了一个自定义的openai健身房环境,但是采取了谨慎的行动而不是连续的行动 . 因此,我的代理人可以在每个步骤中进入左/上/右/下四个方向中的一个 . 然而,其中一个动作总会导致代理崩溃,因为它不能"reverse" . 目前我只是让代理人采取任何行动,如果它做出无效动作就让它死掉,希望它最终会学会在那个状态下不... -
-1 votesanswersviews
为什么openai健身房会为终端州提供零奖励? [关闭]
我最近一直在试验 Gym (和RL),健身房的一个特定行为激起了我的兴趣 . 为什么即使游戏结束,OpenAI Gym也会返回奖励0?例如,在Breakout-v0中,当花费所有五个生命时,env.step将返回 done=True 和 reward=0 . 我们不应该通过返回负面强化/奖励通知经纪人这样的状态是不利的吗? 此外,对于环境中的每一步(仍然是Breakout-v0),如果当时没有砖... -
2 votesanswersviews
如何实现Q学习以近似最优控制?
我有兴趣实现Q学习(或某种形式的强化学习)来找到最佳协议 . 目前,我有一个用Python编写的函数,我可以在其中接受协议或“动作”和“状态”并返回一个新状态和一个“奖励” . 但是,我很难找到可以在这种情况下使用的Q-learning的Python实现(即可以学习该功能的东西,就好像它是一个黑盒子) . 我看过OpenAI健身房,但这需要编写一个新的环境 . 有人会知道我可以采用的更简单的包或脚... -
0 votesanswersviews
Gym(openAI)环境动作空间取决于实际状态
我正在使用gym toolkit来创建我自己的env和keras-rl以在代理中使用我的env . 问题是我的行动空间变化,这取决于实际状态 . 例如,我有46个可能的动作,但是给定某个状态只有7个可用,并且我无法找到建模的方法 . 我读过那个问题open-ai-enviroment-with-changing-action-space-after-each-step 但这并没有解决我的问题 . ... -
3 votesanswersviews
OpenAI健身房安装错误
我试图用pip在Windows上安装OpenAi Gym,但是引发了2个错误 . 首先我克隆了存储库并执行: git clone https://github.com/openai/gym.git cd gym pip install -e . 直到这里一切都好 . 我可以测试第一个环境 . 但是当我尝试完整安装时, pip install -e' . [all]' 我收到了错误: Bo...