tpl-dataflow

    1热度

    1回答

    我设计由各种数据块的数据流复杂。我发送一个数据包到流中,并在最后收到一个结果。 我 input.Post(); input.Complete(); // and later with ReceiveAsync(); 工作,为第一次调用一切工作正常,但我不知道如何通过发送第二数据包到流图。 我也必须使用一个WriteOnceBlock,可这是呼叫的数据流两倍的问题在图表上?

    1热度

    1回答

    我建立了一个系统,可以无限期地从队列中读取消息,然后使用Rx和TPL DataFlow将它们关闭。 出于某种原因,在几百条消息之后,ActionBlock停止运行挂起,我找不到原因。 this.GetMessages()继续着火,但this.ProcessMessages不再。 var source = Observable .Timer(TimeSpan.FromMillisecond

    3热度

    1回答

    我正在创建一个使用TPL DataFlow的任务处理器。我将遵循生产者消费者模型,在生产者生产一些项目的时候需要处理一段时间,消费者不断等待新项目到达。这里是我的代码: async Task Main() { var runner = new Runner(); CancellationTokenSource cts = new CancellationTokenSource

    3热度

    2回答

    我有(我的URL列表约为1000个网址),我想知道是否有更effecient调用多个URL来自同一站点(已改变ServicePointManager.DefaultConnectionLimit)。 也就是它更好地重复使用相同的HttpClient或创建在每次调用新的一个,下面使用的只是一个而不是多个。 using (var client = new HttpClient { Timeout =

    1热度

    2回答

    我一直在构建一个服务,使用Queue<string>对象处理文件来管理项目。 public partial class BasicQueueService : ServiceBase { private readonly EventWaitHandle completeHandle = new EventWaitHandle(false, EventResetMode.Ma

    0热度

    2回答

    将项目发布到TPL DataFlow时,是否有任何机制可以允许延迟发布? public partial class BasicDataFlowService { private readonly ActionBlock<string> workerBlock; public BasicDataFlowService() { workerBlock =

    3热度

    2回答

    中连续生产者 - 消费者模式这里就是我想要做的事: 请项目的内存队列需要处理(即IsProcessed = 0) 每5秒,从数据库获取未加工的项目,如果他们不已经在队列,从队列中,对它们进行处理,并且处理项目或每次添加它们 持续拉项目,在数据库中更新(IsProcessed = 1 ) 做了这一切“并行的POSS IBLE” 我有一个构造我的服务像 public MyService() {

    2热度

    2回答

    我已经建立了使用TPL Dataflow两条管道: TransformBlock => TransformBlock => BatchBlock => .... TransformBlock => BatchBlock => TransformBlock => .... 我要完成 /=> Transform Block => TransformBlock => BatchBlock =

    4热度

    3回答

    我想这是一种代码审查,但这里是我的生产者/消费者模式的实现。我想知道的是会有这种情况,ReceivingThread()或SendingThread()方法中的while循环可能会停止执行。请注意,从多个不同的线程调用EnqueueSend(DataSendEnqeueInfo info),我可能无法在这里使用任务,因为我必须在单独的线程中使用命令。 private Thread mReceivi

    2热度

    1回答

    我们正在尝试使用TPL Dataflow框架的数据处理管道。 管道的基本要点是: 迭代通过CSV文件在文件系统(10,000) 验证我们尚未导入的内容,如果我们通过一个单一的内容忽略 迭代CSV文件(20,000-120,000行)并创建符合我们需要的数据结构。 批量处理这些新的dataStructured项目并将其推送到数据库中 将CSV文件标记为导入。 现在我们有一个现有的Python文件,它