我想重叠许多Docker容器对GPU的使用。 Nvidia提供了一个实用程序来执行此操作:记录在here中的多进程服务。具体说:
默认情况下,命名管道放置在/tmp/nvidia-mps/
中,因此我使用一个卷与容器共享该目录。
但这还不足以使容器中的cuda驱动程序“查看” MPS服务器。
我应该在主机和容器之间共享哪些资源,以便它可以连接到MPS服务器?
最佳答案
要启动可以访问mps的容器,它必须具有对/tmp/nvidia-mps
的绑定(bind)安装,并且必须与主机具有相同的interprocess-communication group。
例如:
docker run -v /tmp/nvidia-mps:/tmp/nvidia-mps --ipc=host nvidia/cuda
关于docker - 如何从Docker容器连接到Nvidia MPS服务器?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/45724523/