multiprocessing.Pool - PicklingError: 无法序列化 <type 'thread.lock'>: 属性查找 thread.lock 失败

52 投票
3 回答
124450 浏览
提问于 2025-04-17 04:50

multiprocessing.Pool 让我感到很困扰...
我想要升级很多软件包,而每一个软件包我都得检查一下是否有更新的版本。这项工作是通过 check_one 这个函数来完成的。
主要的代码在 Updater.update 方法里:我在这里创建了一个 Pool 对象,并调用了 map() 方法。

以下是代码:

def check_one(args):
    res, total, package, version = args
    i = res.qsize()
    logger.info('\r[{0:.1%} - {1}, {2} / {3}]',
        i / float(total), package, i, total, addn=False)
    try:
        json = PyPIJson(package).retrieve()
        new_version = Version(json['info']['version'])
    except Exception as e:
        logger.error('Error: Failed to fetch data for {0} ({1})', package, e)
        return
    if new_version > version:
        res.put_nowait((package, version, new_version, json))

class Updater(FileManager):

    # __init__ and other methods...

    def update(self):    
        logger.info('Searching for updates')
        packages = Queue.Queue()
        data = ((packages, self.set_len, dist.project_name, Version(dist.version)) \
            for dist in self.working_set)
        pool = multiprocessing.Pool()
        pool.map(check_one, data)
        pool.close()
        pool.join()
        while True:
            try:
                package, version, new_version, json = packages.get_nowait()
            except Queue.Empty:
                break
            txt = 'A new release is avaiable for {0}: {1!s} (old {2}), update'.format(package,
                                                                                      new_version,
                                                                                      version)
            u = logger.ask(txt, bool=('upgrade version', 'keep working version'), dont_ask=self.yes)
            if u:
                self.upgrade(package, json, new_version)
            else:
                logger.info('{0} has not been upgraded', package)
        self._clean()
        logger.success('Updating finished successfully')

当我运行它的时候,我遇到了一个奇怪的错误:

Searching for updates
Exception in thread Thread-1:
Traceback (most recent call last):
  File "/usr/lib/python2.7/threading.py", line 552, in __bootstrap_inner
    self.run()
  File "/usr/lib/python2.7/threading.py", line 505, in run
    self.__target(*self.__args, **self.__kwargs)
  File "/usr/local/lib/python2.7/dist-packages/multiprocessing/pool.py", line 225, in _handle_tasks
    put(task)
PicklingError: Can't pickle <type 'thread.lock'>: attribute lookup thread.lock failed

3 个回答

0

我在使用docker时遇到了这个问题,那个时候我用的是python 3.6版本。后来我把版本换成了3.7.3,问题就解决了。

11

经过大量的研究,我发现了一个类似的问题……

结果发现,任何包含 threading.Condition() 对象的东西,都永远无法与 multiprocessing.Pool 一起使用。

这里有一个例子:

import multiprocessing as mp
import threading

class MyClass(object):
   def __init__(self):
      self.cond = threading.Condition()

def foo(mc):
   pass

pool=mp.Pool()
mc=MyClass()
pool.map(foo,(mc,))

我在 Python 2.7.5 上运行这个,遇到了同样的错误:

Exception in thread Thread-2:
Traceback (most recent call last):
  File "/usr/lib64/python2.7/threading.py", line 811, in __bootstrap_inner
self.run()
  File "/usr/lib64/python2.7/threading.py", line 764, in run
self.__target(*self.__args, **self.__kwargs)
  File "/usr/lib64/python2.7/multiprocessing/pool.py", line 342, in _handle_tasks
put(task)
PicklingError: Can't pickle <type 'thread.lock'>: attribute lookup thread.lock failed

但我在 Python 3.4.1 上运行时,这个问题已经解决了。

不过,对于我们这些仍在使用 2.7.x 的人来说,我还没有找到任何有用的解决办法。

33

在使用多进程时,我们通过一个叫做 mp.SimpleQueue 的工具把任务(比如 check_onedata)传递给工作进程。和 Queue.Queue 不同的是,放进 mp.SimpleQueue 的所有东西都必须是可以被“打包”的。Queue.Queue 是不能被“打包”的:

import multiprocessing as mp
import Queue

def foo(queue):
    pass

pool=mp.Pool()
q=Queue.Queue()

pool.map(foo,(q,))

这会导致一个错误:

UnpickleableError: Cannot pickle <type 'thread.lock'> objects

你的 data 包含了 packages,而 packages 是一个 Queue.Queue。这可能就是问题的根源。


这里有一个可能的解决办法:这个 Queue 被用作两个目的:

  1. 用来大致了解队列的大小(通过调用 qsize
  2. 用来存储结果,以便后续取用。

我们可以用 mp.Value 来在多个进程之间共享一个值,而不是调用 qsize

而且,我们可以(也应该)直接从 check_one 的调用中返回结果,而不是把结果存储在队列里。pool.map 会自己收集结果,并把这些结果作为 pool.map 的返回值返回。

举个例子:

import multiprocessing as mp
import Queue
import random
import logging

# logger=mp.log_to_stderr(logging.DEBUG)
logger = logging.getLogger(__name__)


qsize = mp.Value('i', 1)
def check_one(args):
    total, package, version = args
    i = qsize.value
    logger.info('\r[{0:.1%} - {1}, {2} / {3}]'.format(
        i / float(total), package, i, total))
    new_version = random.randrange(0,100)
    qsize.value += 1
    if new_version > version:
        return (package, version, new_version, None)
    else:
        return None

def update():    
    logger.info('Searching for updates')
    set_len=10
    data = ( (set_len, 'project-{0}'.format(i), random.randrange(0,100))
             for i in range(set_len) )
    pool = mp.Pool()
    results = pool.map(check_one, data)
    pool.close()
    pool.join()
    for result in results:
        if result is None: continue
        package, version, new_version, json = result
        txt = 'A new release is avaiable for {0}: {1!s} (old {2}), update'.format(
            package, new_version, version)
        logger.info(txt)
    logger.info('Updating finished successfully')

if __name__=='__main__':
    logging.basicConfig(level=logging.DEBUG)
    update()

撰写回答