基本上,我在渴望模式下运行强化学习模型,我需要限制每个进程将从gpu占用的内存量。在图形API中,这可以通过修改tf.ConfigProto()对象并使用该config对象创建会话来实现。

但是,在渴望的api中,没有会话。我的疑问是,在这种情况下如何管理gpu内存?

最佳答案

tf.enable_eager_execution()接受一个config参数,其值将与同一ConfigProto消息相同。

因此,您应该能够使用它为每个进程设置相同的选项。

希望能有所帮助。

09-25 19:34