在尝试调整我在Google Cloud 平台上安装的Tesla K80上的推荐引擎时,我做了一个非常有趣的观察 . 不幸的是,我找不到任何可能指向正确方向的文献是不成功的 . 这是我的困境......

我使用python脚本和jupyter笔记本运行相同的代码来安装完全连接的模型 . 令人惊讶的是,使用相同的超参数(批量大小等),代码运行速度更快,使用jupyter笔记本内核并且在GPU上使用的内存比使用从shell调用的python代码调整模型时更多 .

因为,我希望我的代码能够在最短的时间内运行,并且因为Web套接字超时而无人值守,jupyter经常会关闭连接,有没有什么办法可以增加python进程在GPU上可以使用的内存量?打开任何交替的方式来完成这项工作 . 提前致谢 .