问题描述
我一直在关注有用的示例 here 在 Gym 中创建自定义环境,然后我想在 rllib 中对其进行训练。
我的环境有一些可选参数,我想在训练时选择这些参数。我认为代码的相关部分在 train.py
中:
# start Ray -- add `local_mode=True` here for debugging
ray.init(ignore_reinit_error=True)
# register the custom environment
select_env = "example-v0"
register_env(select_env,lambda config: Example_v0())
我尝试了一些显而易见的事情,比如
register_env(select_env,lambda config: Example_v0(optional_arg=n))
但似乎没有任何效果。有没有办法在训练前传递不同的参数?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)