python-multiprocessing

    0热度

    1回答

    我想跨多个工人,我的巨大循环,但我有这个错误:sqlite3.ProgrammingError:递归使用游标不允许。 我想我必须应用Lock。我该怎么做? import multiprocessing.dummy as multiprocessing con = sqlite3.connect('db.db', check_same_thread=False) cur = con.curso

    2热度

    1回答

    当使用多处理池运行时,我发现工作进程继续运行超过引发异常的点。 考虑下面的代码: import multiprocessing def worker(x): print("input: " + x) y = x + "_output" raise Exception("foobar") print("output: " + y) return

    1热度

    1回答

    我试图做一个程序,要求用户输入和阅读器功能打印输入没有输入功能阻止阅读器功能。 这里我可以做什么 import multiprocessing as mp import time def ProInput(queue): while True: if queue.empty(): print("{} waiting an item".format(mp.

    2热度

    1回答

    当我使用一个标准的队列送样一个过程,一切工作正常。但是,由于我的需求很简单,我尝试使用SimpleQueue,出于某种原因,'空'方法不起作用。以下是详细信息: 错误来自于消费过程中(当sample_queue是队列,一切正常,当sample_queue是SimpleQueue,事情打破): def frame_update(i): while not self.sample_que

    0热度

    1回答

    我是python和多处理模块的新手。我创建了一个我试图完成提炼我的问题的简化版本。问题在于,变量在被附加到的函数之外被调用时并不会更新/工作进程。 经过研究,我认为这可能与队列有关?不过,我认为队列更多的是在我不相信的过程之间共享内存,因为每个列表都可以独立添加。 from multiprocessing import Pool def build(array): array.app

    0热度

    1回答

    我有一个代码,它代表一个汽车刺激,它基本上从文本文件读取gps点并确定汽车的速度。 多重用于在同一时间 我要调用一个函数之后的多是准备打电话,将检测到流量的清单中,从多个文本文件阅读。 目前它正在多处理之前调用该函数并将其调用5次(多进程的数量),尽管它们没有链接。 def stimulation(): if __name__ == '__main__': p1 = Process(t

    1热度

    1回答

    我有一个由芹菜工人运行的脚本,它使用台球库中的Pool,并且我衍生出多个过程。我试图在这些进程中使用哨兵,以便可以捕获任何未处理/处理的异常。下面写的是我的示例代码: from configurations import SENTRY_CLIENT def process_data(data): try: s = data/0 except ZeroDivisionError:

    0热度

    1回答

    我已成立等 manager = Manager(); nodes = manager.dict(); p1 = Process(target = advertise, args=(nodes,)); p1.start(); p2 = Process(target = receive, args=(nodes,)); p2.start(); def advertise(nodes)

    1热度

    1回答

    实现在多进程超时我做的: import multiprocessing as mp q = mp.Queue() p = mp.Process(target=lambda x: x, args=('foo',)) p.start() p.join(10) if p.exitcode == 0: q.get() else: print("We timed out.")

    0热度

    1回答

    from sklearn.datasets import make_classification from sklearn.ensemble import RandomForestClassifier from sklearn import clone import multiprocessing import functools import numpy as np def tra