multiprocessing.Pool - PicklingError: 无法序列化 <type 'thread.lock'>: 属性查找 thread.lock 失败
multiprocessing.Pool
让我感到很困扰...
我想要升级很多软件包,而每一个软件包我都得检查一下是否有更新的版本。这项工作是通过 check_one
这个函数来完成的。
主要的代码在 Updater.update
方法里:我在这里创建了一个 Pool 对象,并调用了 map()
方法。
以下是代码:
def check_one(args):
res, total, package, version = args
i = res.qsize()
logger.info('\r[{0:.1%} - {1}, {2} / {3}]',
i / float(total), package, i, total, addn=False)
try:
json = PyPIJson(package).retrieve()
new_version = Version(json['info']['version'])
except Exception as e:
logger.error('Error: Failed to fetch data for {0} ({1})', package, e)
return
if new_version > version:
res.put_nowait((package, version, new_version, json))
class Updater(FileManager):
# __init__ and other methods...
def update(self):
logger.info('Searching for updates')
packages = Queue.Queue()
data = ((packages, self.set_len, dist.project_name, Version(dist.version)) \
for dist in self.working_set)
pool = multiprocessing.Pool()
pool.map(check_one, data)
pool.close()
pool.join()
while True:
try:
package, version, new_version, json = packages.get_nowait()
except Queue.Empty:
break
txt = 'A new release is avaiable for {0}: {1!s} (old {2}), update'.format(package,
new_version,
version)
u = logger.ask(txt, bool=('upgrade version', 'keep working version'), dont_ask=self.yes)
if u:
self.upgrade(package, json, new_version)
else:
logger.info('{0} has not been upgraded', package)
self._clean()
logger.success('Updating finished successfully')
当我运行它的时候,我遇到了一个奇怪的错误:
Searching for updates
Exception in thread Thread-1:
Traceback (most recent call last):
File "/usr/lib/python2.7/threading.py", line 552, in __bootstrap_inner
self.run()
File "/usr/lib/python2.7/threading.py", line 505, in run
self.__target(*self.__args, **self.__kwargs)
File "/usr/local/lib/python2.7/dist-packages/multiprocessing/pool.py", line 225, in _handle_tasks
put(task)
PicklingError: Can't pickle <type 'thread.lock'>: attribute lookup thread.lock failed
3 个回答
我在使用docker时遇到了这个问题,那个时候我用的是python 3.6版本。后来我把版本换成了3.7.3,问题就解决了。
经过大量的研究,我发现了一个类似的问题……
结果发现,任何包含 threading.Condition() 对象的东西,都永远无法与 multiprocessing.Pool 一起使用。
这里有一个例子:
import multiprocessing as mp
import threading
class MyClass(object):
def __init__(self):
self.cond = threading.Condition()
def foo(mc):
pass
pool=mp.Pool()
mc=MyClass()
pool.map(foo,(mc,))
我在 Python 2.7.5 上运行这个,遇到了同样的错误:
Exception in thread Thread-2:
Traceback (most recent call last):
File "/usr/lib64/python2.7/threading.py", line 811, in __bootstrap_inner
self.run()
File "/usr/lib64/python2.7/threading.py", line 764, in run
self.__target(*self.__args, **self.__kwargs)
File "/usr/lib64/python2.7/multiprocessing/pool.py", line 342, in _handle_tasks
put(task)
PicklingError: Can't pickle <type 'thread.lock'>: attribute lookup thread.lock failed
但我在 Python 3.4.1 上运行时,这个问题已经解决了。
不过,对于我们这些仍在使用 2.7.x 的人来说,我还没有找到任何有用的解决办法。
在使用多进程时,我们通过一个叫做 mp.SimpleQueue
的工具把任务(比如 check_one
和 data
)传递给工作进程。和 Queue.Queue
不同的是,放进 mp.SimpleQueue
的所有东西都必须是可以被“打包”的。Queue.Queue
是不能被“打包”的:
import multiprocessing as mp
import Queue
def foo(queue):
pass
pool=mp.Pool()
q=Queue.Queue()
pool.map(foo,(q,))
这会导致一个错误:
UnpickleableError: Cannot pickle <type 'thread.lock'> objects
你的 data
包含了 packages
,而 packages
是一个 Queue.Queue
。这可能就是问题的根源。
这里有一个可能的解决办法:这个 Queue
被用作两个目的:
- 用来大致了解队列的大小(通过调用
qsize
) - 用来存储结果,以便后续取用。
我们可以用 mp.Value
来在多个进程之间共享一个值,而不是调用 qsize
。
而且,我们可以(也应该)直接从 check_one
的调用中返回结果,而不是把结果存储在队列里。pool.map
会自己收集结果,并把这些结果作为 pool.map
的返回值返回。
举个例子:
import multiprocessing as mp
import Queue
import random
import logging
# logger=mp.log_to_stderr(logging.DEBUG)
logger = logging.getLogger(__name__)
qsize = mp.Value('i', 1)
def check_one(args):
total, package, version = args
i = qsize.value
logger.info('\r[{0:.1%} - {1}, {2} / {3}]'.format(
i / float(total), package, i, total))
new_version = random.randrange(0,100)
qsize.value += 1
if new_version > version:
return (package, version, new_version, None)
else:
return None
def update():
logger.info('Searching for updates')
set_len=10
data = ( (set_len, 'project-{0}'.format(i), random.randrange(0,100))
for i in range(set_len) )
pool = mp.Pool()
results = pool.map(check_one, data)
pool.close()
pool.join()
for result in results:
if result is None: continue
package, version, new_version, json = result
txt = 'A new release is avaiable for {0}: {1!s} (old {2}), update'.format(
package, new_version, version)
logger.info(txt)
logger.info('Updating finished successfully')
if __name__=='__main__':
logging.basicConfig(level=logging.DEBUG)
update()