我有以下导致Nuke挂起的代码。基本上,我想做的是从文件系统中获取文件和文件夹的列表,而我试图通过并行处理来加快它的速度。这在Nuke外部非常有效,但是正如我之前所说,在Nuke中运行此命令将导致Nuke挂起。有没有更好的方法可以使Nuke无法挂起?最好是,我想通过Python的标准库或与平台无关的软件包来解决此问题。但是,如果没有办法做到这一点,那我很好。最坏的情况是,我将不得不不使用并行处理,而要寻找其他优化。

另外,当我在Nuke中运行此代码时,在控制台中出现以下错误:

Unknown units in -c from multiprocessing.forking import main; main()


代码:

#!/bin/env python

import multiprocessing
import os

CPU_COUNT = multiprocessing.cpu_count()


def _threaded_master(root):
    in_queue = multiprocessing.JoinableQueue()
    folder_queue = multiprocessing.JoinableQueue()
    file_queue = multiprocessing.JoinableQueue()

    in_queue.put(root)

    for _ in xrange(CPU_COUNT):
        multiprocessing.Process(target=_threaded_slave, args=(in_queue, folder_queue, file_queue)).start()

    in_queue.join()

    return {"folders": folder_queue, "files": file_queue}


def _threaded_slave(in_queue, folder_queue, file_queue):
    while True:
        path_item = in_queue.get()

        if os.path.isdir(path_item):
            for item in os.listdir(path_item):
                path = os.path.join(path_item, item)
                in_queue.put(path)

        in_queue.task_done()


if __name__ == "__main__":
    print _threaded_master(r"/path/to/root")

最佳答案

这是我的代码,使用多个线程扫描一棵大目录树。

我最初编写的代码使用的是很好的旧版multiprocessing.Pool(),因为它非常简单,并且可以为您提供函数的结果。不需要输入和输出队列。另一个区别是它在线程上使用进程,这需要权衡。

Pool有一个很大的缺点:假定您有要处理的静态项目列表。

因此,我按照原始示例重写了代码:要处理的目录的输入/输出队列和输出队列。调用者必须显式地从输出队列中获取项目。

对于咧嘴笑,我与旧的os.walk()进行了时序比较,并且...至少在我的机器上,传统解决方案更快。两种解决方案产生的文件数量完全不同,我无法解释。

玩得开心!

资源

#!/bin/env python

import multiprocessing, threading, time
import logging, os, Queue, sys

logging.basicConfig(
    level=logging.INFO,
    format="%(asctime)-4s %(levelname)s %(threadName)s %(message)s",
    datefmt="%H:%M:%S",
    stream=sys.stderr,
)

def scan_dir(topdir):
    try:
        for name in os.listdir(topdir):
            path = os.path.join(topdir, name)
            yield (path, os.path.isdir(path))
    except OSError:
        logging.error('uhoh: %s', topdir)

def scan_dir_queue(inqueue, outqueue):
    logging.info('start')
    while True:
        try:
            dir_item = inqueue.get_nowait()
        except Queue.Empty:
            break

        res = list( scan_dir(dir_item) )
        logging.debug('- %d paths', len(res))
        for path,isdir in res:
            outqueue.put( (path,isdir) )
            if isdir:
                inqueue.put(path)
    logging.info('done')

def thread_master(root):
    dir_queue = Queue.Queue() # pylint: disable=E1101
    dir_queue.put(root)
    result_queue = Queue.Queue()

    threads = [
        threading.Thread(
            target=scan_dir_queue, args=[dir_queue, result_queue]
        )
        for _ in range(multiprocessing.cpu_count())
    ]

    for th in threads:
        th.start()
    for th in threads:
        th.join()
    return result_queue.queue

if __name__ == "__main__":
    topdir = os.path.expanduser('~')

    start = time.time()
    res = thread_master(topdir)
    print 'threaded:', time.time() - start
    print len(res), 'paths'

    def mywalk(topdir):
        for (dirpath, _dirnames, filenames) in os.walk(topdir):
            for name in filenames:
                yield os.path.join(dirpath, name)
    start = time.time()
    res = list(mywalk(topdir))
    print 'os.walk:', time.time() - start
    print len(res), 'paths'


输出

11:56:35 INFO Thread-1 start
11:56:35 INFO Thread-2 start
11:56:35 INFO Thread-3 start
11:56:35 INFO Thread-4 start
11:56:35 INFO Thread-2 done
11:56:35 INFO Thread-3 done
11:56:35 INFO Thread-4 done
11:56:42 INFO Thread-1 done
threaded: 6.49218010902
299230 paths
os.walk: 1.6940600872
175741 paths

关于python - Nuke中的Python多处理导致Nuke挂起,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/25532979/

10-11 22:04