使用Pool.apply_async运行大量任务(使用大参数)时,会分配进程并进入等待状态,并且等待进程的数量没有限制。这可以通过吃所有的记忆结束,如下面的例子:Python多处理:如何限制等待进程的数量?
import multiprocessing
import numpy as np
def f(a,b):
return np.linalg.solve(a,b)
def test():
p = multiprocessing.Pool()
for _ in range(1000):
p.apply_async(f, (np.random.rand(1000,1000),np.random.rand(1000)))
p.close()
p.join()
if __name__ == '__main__':
test()
我在寻找一种方式来限制等待队列,以这样一种方式,只是在那里等待处理的数量有限,并且Pool.apply_async在等待队列已满时被阻塞。
不错例子(+1)。 – mgilson