我提前道歉这可能是一个很长的问题,但是我试着用它来缩短它 .

也是一个小小的免责声明,我是机器学习的新手,并且只研究它大约2周,我理解神经网络的基础知识和张量流程编程以及强化学习如何工作但我所学到的一切都没有帮助我足以应付我的情况 .

在所有强化的学习示例中,我看到他们都使用基于环境的状态和奖励(通常来自vizdoom或openai gym(这是一个Windows用户我不能使用atari或宇宙没有像docker和WSL这样的东西) ))我一直在尝试做的是使用cv2的获取桌面窗口函数来返回一个数组,其中包含游戏窗口中每个像素的像素值(即时尝试它在简单的mod上,因为我的电脑不是非常强大)多数民众赞成完美 .

所以为了获得奖励,我想使用cv2的matchtemplate函数来检查游戏屏幕是否与胜利屏幕匹配,如果是,或者如果屏幕与丢失的屏幕匹配则奖励,然后惩罚我想要使用我的输出的状态cv2 getdesktopwindow功能用于我的DRQN网络(它也可以与openai的健身房推车完美配合使用开放的ai env工具),但我无法弄清楚如何用厄运和cv2做到这一点 .

我遗漏了很多东西以保持简单,我也删除了大部分没有用的代码,但是如果有帮助的话我还有旧东西,所以是的,只要问你是否需要它 . 任何帮助,甚至只是链接到一些资源,解释如何为RL算法设置自定义变量将是非常折旧,因为我只能找到像openai gym等东西的东西,谢谢 . :)