我试图在python中创建一个程序,该程序同时在不同的处理器上运行多个函数实例(15)。我一直在研究这一点,并使用多处理工具工具设置了下面的程序。Python:同时运行多个进程
不幸的是,程序按顺序执行函数的每个实例(在进入循环的下一部分之前似乎要等待一个完成)。
from __future__ import print_function
from multiprocessing import Process
import sys
import os
import re
for i in range(1,16):
exec("path%d = 0" % (i))
exec("file%d = open('%d-path','a', 1)" % (i, i))
def stat(first, last):
for j in range(1,40000):
input_string = "water" + str(j) + ".xyz.geocard"
if os.path.exists('./%s' % input_string) == True:
exec("out%d = open('output%d', 'a', 1)" % (first, first))
exec('print("Processing file %s...", file=out%d)' % (input_string, first))
with open('./%s' % input_string,'r') as file:
for line in file:
for i in range(first,last):
search_string = " " + str(i) + " path:"
for result in re.finditer(r'%s' % search_string, line):
exec("path%d += 1" % i)
for i in range(first,last):
exec("print(path%d, file=file%d)" % (i, i))
processes = []
for m in range(1,16):
n = m + 1
p = Process(target=stat, args=(m, n))
p.start()
processes.append(p)
for p in processes:
p.join()
我对编程有新意,并没有并行化经验 - 任何帮助将不胜感激。
- 编辑 -
我已经包含上面的整个程序,与实际功能替代“有些功能”,证明这不是一个时间问题。该程序可能需要数天才能遍历所有40,000个文件(每个文件都很大)。
- 另一个编辑 -
它看起来像前几个反应是正确的 - 剧本确实同步推出多个进程。我的问题与我正在使用的集群上的提交系统有关。
谢谢!