Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
openaigym env.P,AttributeError“TimeLimit”对象没有属性“P”
我目前正在阅读 Sudharsan Ravichandiran 的 Python 强化学习实践 在我遇到的第一个示例中 遇到了以下 AttributeError AttributeError TimeLimit object has no
python
python3x
reinforcementlearning
openaigym
ValueError:给定的 numpy 数组中至少有一个步幅为负,并且当前不支持具有负步幅的张量
我正在使用 RL 编写自动驾驶代码 我正在使用稳定的基线3和开放的人工智能健身房环境 我在 jupyter 笔记本中运行以下代码 但出现以下错误 Testing our model episodes 5 test the environme
python
reinforcementlearning
openaigym
stablebaselines
我在 env 渲染中遇到错误 - env.render()
我试图在渲染时实现 Atari Games 但出现如下错误 line 283 in render raise error Error gym error Error render mode human is deprecated Pleas
python3x
machinelearning
deeplearning
openaigym
如何传递元组列表作为 OpenAI Gym 中的动作空间?
从头开始创建 OpenAI Gym 环境时 必须定义一个动作空间 这是通过数据包 空间 中自己的 数据结构 来完成的 有几种不同类型的空间 如盒子 离散等 我有一个元组列表 我想用作操作空间 有没有办法做到这一点 我本来可以使用spaces
python
openaigym
导入环境OpenAI Gym出错
我正在尝试运行 OpenAI Gym 环境 但出现以下错误 import gym env gym make Breakout v0 ERROR Library Frameworks Python framework Versions 3 8
python
openaigym
使用 DQN 增加 Cartpole-v0 损失
您好 我正在尝试训练 DQN 来解决健身房的 Cartpole 问题 由于某种原因Loss https i stack imgur com uHxpR png看起来像这样 橙色线 你们能看一下我的代码并帮忙解决这个问题吗 我已经对超参数进行
python
Pytorch
reinforcementlearning
openaigym
如何查看OpenAIgym环境中可用的动作?
使用 OpenAIgym 时 导入库后import gym 可以使用以下命令检查动作空间env action space 但这仅给出了动作空间的大小 我想知道动作空间的每个元素对应什么样的动作 有简单的方法吗 如果你的行动空间是离散的 一维
reinforcementlearning
openaigym
openAi-gym 名称错误
我正在尝试在 WSL 上使用 OpenAI 著名的 Gym 模块并在 python 3 5 2 上执行代码 当我尝试运行环境时正如这里所解释的 https gym openai com docs 使用代码 import gym env gy
python
python3x
NameError
windowssubsystemforlinux
openaigym
OpenAI 健身房的突破-v0“暂停”
在 OpenAI 健身房环境中训练时 我认为环境有时会 停止 对于连续的许多帧 没有球可见 停止生成 这是健身房环境的错误吗 这是 Breakout v0 游戏的一部分吗 我还想知道 Breakout v0 中可能采取的行动是什么 我想通了
openaigym
如何在OpenAI中创建新的健身房环境?
我的任务是制作一个 AI 代理 该代理将学习使用 ML 玩视频游戏 我想使用 OpenAI Gym 创建一个新环境 因为我不想使用现有环境 如何创建新的自定义环境 另外 我是否可以通过其他方式开始开发 AI 代理来玩特定的视频游戏 而无需
machinelearning
artificialintelligence
openaigym
为什么“pip installgym”失败并出现“python setup.py Egg_info 未成功运行”错误?
我突然很难在 Google Colab 中安装gym 错误看起来像这样 Looking in indexes https pypi org simple https us python pkg dev colab wheels public
python3x
googlecolaboratory
openaigym
SubprocVecEnv 无法与自定义环境一起使用(稳定基线 - 健身房)
我使用gym Env作为父类创建了一个自定义环境 并且一切都可以很好地运行单核 我已经开始代码如下 class MyEnv gym Env 但是 如果我尝试使用 SubprocVecEnv 使用所有 24 个 CPU 核心来加速学习过程 我
subprocess
reinforcementlearning
openaigym
stablebaselines
从特定帧和硬编码代理的 Atari 游戏中提取状态空间?
我正在尝试从 Amidar 中提取状态空间 以便为某些特定目的对代理进行硬编码 例如 我希望代理在敌人距离 2 个单元格时就下降 或者上升直到他们撞到墙上然后再次下降 但是 我不太确定如何提取特定帧的状态空间 或者一般情况下的该实例 以及如
openaigym
Google Colaboratory 中的 openAI Gym NameError
我刚刚在 Google Colab 上安装了 openAIgym 但是当我尝试运行 CartPole v0 环境时在这里解释 Code import gym env gym make CartPole v0 for i episode in
python
googlecolaboratory
openaigym
如何设置 openai-gym 环境以特定状态而不是“env.reset()”开始?
今天 当我尝试在openai gym环境下实现一个rl agent时 我发现一个问题 似乎所有的agent都是从最初始的状态开始训练的 env reset i e import gym env gym make CartPole v0 in
python3x
reinforcementlearning
openaigym
rllib 使用自定义注册环境
Rllib 文档提供了一些有关如何创建和训练自定义环境 有一些有关注册该环境的信息 但我想它的工作方式需要与健身房登记 我正在与简单走廊环境 如果我将注册码添加到文件中 如下所示 from ray tune registry import
python
openaigym
Ray