我有以下导致Nuke挂起的代码。基本上,我想做的是从文件系统中获取文件和文件夹的列表,而我试图通过并行处理来加快它的速度。这在Nuke外部非常有效,但是正如我之前所说,在Nuke中运行此命令将导致Nuke挂起。有没有更好的方法可以使Nuke无法挂起?最好是,我想通过Python的标准库或与平台无关的软件包来解决此问题。但是,如果没有办法做到这一点,那我很好。最坏的情况是,我将不得不不使用并行处理,而要寻找其他优化。
另外,当我在Nuke中运行此代码时,在控制台中出现以下错误:
Unknown units in -c from multiprocessing.forking import main; main()
代码:
#!/bin/env python
import multiprocessing
import os
CPU_COUNT = multiprocessing.cpu_count()
def _threaded_master(root):
in_queue = multiprocessing.JoinableQueue()
folder_queue = multiprocessing.JoinableQueue()
file_queue = multiprocessing.JoinableQueue()
in_queue.put(root)
for _ in xrange(CPU_COUNT):
multiprocessing.Process(target=_threaded_slave, args=(in_queue, folder_queue, file_queue)).start()
in_queue.join()
return {"folders": folder_queue, "files": file_queue}
def _threaded_slave(in_queue, folder_queue, file_queue):
while True:
path_item = in_queue.get()
if os.path.isdir(path_item):
for item in os.listdir(path_item):
path = os.path.join(path_item, item)
in_queue.put(path)
in_queue.task_done()
if __name__ == "__main__":
print _threaded_master(r"/path/to/root")
最佳答案
这是我的代码,使用多个线程扫描一棵大目录树。
我最初编写的代码使用的是很好的旧版multiprocessing.Pool()
,因为它非常简单,并且可以为您提供函数的结果。不需要输入和输出队列。另一个区别是它在线程上使用进程,这需要权衡。Pool
有一个很大的缺点:假定您有要处理的静态项目列表。
因此,我按照原始示例重写了代码:要处理的目录的输入/输出队列和输出队列。调用者必须显式地从输出队列中获取项目。
对于咧嘴笑,我与旧的os.walk()
进行了时序比较,并且...至少在我的机器上,传统解决方案更快。两种解决方案产生的文件数量完全不同,我无法解释。
玩得开心!
资源
#!/bin/env python
import multiprocessing, threading, time
import logging, os, Queue, sys
logging.basicConfig(
level=logging.INFO,
format="%(asctime)-4s %(levelname)s %(threadName)s %(message)s",
datefmt="%H:%M:%S",
stream=sys.stderr,
)
def scan_dir(topdir):
try:
for name in os.listdir(topdir):
path = os.path.join(topdir, name)
yield (path, os.path.isdir(path))
except OSError:
logging.error('uhoh: %s', topdir)
def scan_dir_queue(inqueue, outqueue):
logging.info('start')
while True:
try:
dir_item = inqueue.get_nowait()
except Queue.Empty:
break
res = list( scan_dir(dir_item) )
logging.debug('- %d paths', len(res))
for path,isdir in res:
outqueue.put( (path,isdir) )
if isdir:
inqueue.put(path)
logging.info('done')
def thread_master(root):
dir_queue = Queue.Queue() # pylint: disable=E1101
dir_queue.put(root)
result_queue = Queue.Queue()
threads = [
threading.Thread(
target=scan_dir_queue, args=[dir_queue, result_queue]
)
for _ in range(multiprocessing.cpu_count())
]
for th in threads:
th.start()
for th in threads:
th.join()
return result_queue.queue
if __name__ == "__main__":
topdir = os.path.expanduser('~')
start = time.time()
res = thread_master(topdir)
print 'threaded:', time.time() - start
print len(res), 'paths'
def mywalk(topdir):
for (dirpath, _dirnames, filenames) in os.walk(topdir):
for name in filenames:
yield os.path.join(dirpath, name)
start = time.time()
res = list(mywalk(topdir))
print 'os.walk:', time.time() - start
print len(res), 'paths'
输出
11:56:35 INFO Thread-1 start
11:56:35 INFO Thread-2 start
11:56:35 INFO Thread-3 start
11:56:35 INFO Thread-4 start
11:56:35 INFO Thread-2 done
11:56:35 INFO Thread-3 done
11:56:35 INFO Thread-4 done
11:56:42 INFO Thread-1 done
threaded: 6.49218010902
299230 paths
os.walk: 1.6940600872
175741 paths
关于python - Nuke中的Python多处理导致Nuke挂起,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/25532979/