使用带有CNN的Deep Q网络进行机器人路径规划

问题描述

如何为我的机器人创建Deepbots自定义环境?如何使用TensorFlow和keras与CNN实施DQN。我需要为谁定制环境,以便机器人通过自己的状态和奖励功能找到从源到目的地的障碍物路径?

如果有人可以向我介绍教程或向我解释如何设置机器人路径规划环境,我将非常感谢

解决方法

对于您的问题,如何为我的机器人创建一个Deepbots自定义环境?

您可以在体育馆中创建自己的自定义环境,并且对环境有充分的启发。例如,这个https://gym.openai.com/envs/CarRacing-v0/(源可用)也许修改这个环境就足够了

对于您的问题,如何使用TensorFlow和keras在CNN中实现DQN。

我认为https://keras.io/examples/rl/deep_q_network_breakout/正是您所需要的 您可以在https://github.com/openai/baselines

处看到更多算法

很抱歉没有提供代码,但是您的问题很开放,给您链接似乎是一个更好的主意。

编辑10/11/2020

我认为您正在寻找的是https://github.com/MattChanTK/gym-maze 我强烈建议使用这样的env来编写您的DQN。然后在适合您时,检查源代码并根据需要进行更新。

,

@Alexandre Catalano,感谢您的分享,enter image description here但如何为机器人创建带有图像的障碍物的自定义环境,如上图所示,其中红色圆圈是机器人,绿色正方形是目标,黑色z是静态对象,用于深度强化学习DQN算法,可以像其他健身房环境一样在python中导入。

我想创造一个环境,使机器人可以找到带有静态障碍物的目标。

相关问答

错误1:Request method ‘DELETE‘ not supported 错误还原:...
错误1:启动docker镜像时报错:Error response from daemon:...
错误1:private field ‘xxx‘ is never assigned 按Alt...
报错如下,通过源不能下载,最后警告pip需升级版本 Requirem...