基本上,我在渴望模式下运行强化学习模型,我需要限制每个进程将从gpu占用的内存量。在图形API中,这可以通过修改tf.ConfigProto()对象并使用该config对象创建会话来实现。
但是,在渴望的api中,没有会话。我的疑问是,在这种情况下如何管理gpu内存?
最佳答案
tf.enable_eager_execution()
接受一个config
参数,其值将与同一ConfigProto
消息相同。
因此,您应该能够使用它为每个进程设置相同的选项。
希望能有所帮助。
基本上,我在渴望模式下运行强化学习模型,我需要限制每个进程将从gpu占用的内存量。在图形API中,这可以通过修改tf.ConfigProto()对象并使用该config对象创建会话来实现。
但是,在渴望的api中,没有会话。我的疑问是,在这种情况下如何管理gpu内存?
最佳答案
tf.enable_eager_execution()
接受一个config
参数,其值将与同一ConfigProto
消息相同。
因此,您应该能够使用它为每个进程设置相同的选项。
希望能有所帮助。