我想循环填充字典。循环中的迭代彼此独立。我想在具有数千个处理器的集群上执行此操作。这是我尝试过和需要做的事情的简化版本。
import multiprocessing
class Worker(multiprocessing.Process):
def setName(self,name):
self.name=name
def run(self):
print ('In %s' % self.name)
return
if __name__ == '__main__':
jobs = []
names=dict()
for i in range(10000):
p = Worker()
p.setName(str(i))
names[str(i)]=i
jobs.append(p)
p.start()
for j in jobs:
j.join()
我在自己的电脑上在 python3 中尝试了这个,并收到以下错误:
..
In 249
Traceback (most recent call last):
File "test.py", line 16, in <module>
p.start()
File "/Library/Frameworks/Python.framework/Versions/3.5/lib/python3.5/multiprocessing/process.py", line 105, in start
In 250
self._popen = self._Popen(self)
File "/Library/Frameworks/Python.framework/Versions/3.5/lib/python3.5/multiprocessing/context.py", line 212, in _Popen
return _default_context.get_context().Process._Popen(process_obj)
File "/Library/Frameworks/Python.framework/Versions/3.5/lib/python3.5/multiprocessing/context.py", line 267, in _Popen
return Popen(process_obj)
File "/Library/Frameworks/Python.framework/Versions/3.5/lib/python3.5/multiprocessing/popen_fork.py", line 20, in __init__
self._launch(process_obj)
File "/Library/Frameworks/Python.framework/Versions/3.5/lib/python3.5/multiprocessing/popen_fork.py", line 66, in _launch
parent_r, child_w = os.pipe()
OSError: [Errno 24] Too many open files
有没有更好的方法来做到这一点?
最佳答案
multiprocessing
通过管道与其子进程对话。每个子进程需要两个打开的文件描述符,一个用于读取,一个用于写入。如果您启动 10000 个工作程序,您将结束打开 20000 个文件描述符,这超出了 OS X 上的默认限制(您的路径表明您正在使用)。
您可以通过提高限制来解决此问题。有关详细信息,请参阅 https://superuser.com/questions/433746/is-there-a-fix-for-the-too-many-open-files-in-system-error-on-os-x-10-7-1 - 基本上,它相当于设置两个 sysctl 旋钮并提高 shell 的 ulimit 设置。
关于Python3 并发填充字典,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/35562980/